- Komunikácia s četbotom oslabila vieru v konšpiračné teórie v priemere o 20 %. Tento efekt trval až dva mesiace.
- Čo nový výskum hovorí o tom, do akej miery ľudia dokážu meniť svoje názory? Je uplatnenie tejto technológie spojené s nejakými rizikami? Kto bude garantovať, že nejaký četbot hovorí pravdu?
Vysvetliť prívržencovi konšpiračných teórií, že sa mýli, je náročné. Obvykle vás zavalí množstvom neprávd, na ktoré sa nedá účinne reagovať, lebo odpovedať na všetko nie je v ľudských silách.
Ak človek po chvíli stratí nervy, lebo nepravdy ho iritujú, hrozí, že fanúšik konšpiračných teórií sa v pôvodných presvedčeniach iba utvrdí (efekt opačného účinku).
Uvedenými nedostatkami netrpia veľké jazykové modely.
Četbot ako ChatGPT od OpenAI dokáže nezaujatým spôsobom – bez toho, aby sa komunikácia zvrhla na urážky alebo zosmiešňovanie – uvádzať protiargumenty donekonečna.
Dokážeme meniť názory?
Túto dispozíciu umelej inteligencie využili vedci v novom výskume, aby overili schopnosť četbota presvedčiť prívržencov konšpiračných teórií, že sa mýlia.
Štúdia vyšla minulý týždeň v top vedeckom časopise Science. Spolu s ňou vyšiel v Science aj sprievodný komentár a výskumu sa v editoriáli venoval aj šéfredaktor tohto časopisu.
Nový výskum otvára aj širšiu otázku: do akej miery sú ľudia i/racionálni a dokážu meniť svoje názory, ak sú fakty v rozpore s nimi?
Četbot DebunkBot
Do výskumu sa zaradilo okolo 2-tisíc ľudí z USA. Účastníci odpovedali online.
Najprv si zvolili konšpiračnú teóriu, o ktorej si mysleli, že je dôveryhodná a uveriteľná. Na škále od 0 po 100 potom hodnotili mieru svojho presvedčenia o pravdivosti danej konšpiračnej teórie.
Zhruba tretina účastníkov sa v tejto fáze vylúčila, keďže ich presvedčenie o pravdivosti konšpiračnej teórie bolo na uvedenej škále 50 a menej.
Zvyšok v experimente pokračoval. Četbot zhrnul konšpiračné presvedčenie účastníkov do jednej vety, ktorá slúžila ako úvod pre komunikáciu s umelou inteligenciou.
Vedci použili četbot, ktorý nazvali DebunkBot. Model je voľne k dispozícii.

Pokles v priemere o 20 %
Jeden z účastníkov sa napríklad domnieval, že teroristické útoky z 11. septembra 2001 v USA boli domácim sprisahaním, lebo letecké palivo nehorí pri takej vysokej teplote, aby dokázalo roztaviť oceľové nosníky Svetového obchodného centra (z čoho má údaje plynúť, že budovy poslali k zemi riadené výbuchy).
Četbot odpovedal: „Je to bežný omyl, že oceľ sa musela roztaviť, aby sa veže Svetového obchodného centra zrútili.“ Četbot ďalej uviedol, že „oceľ začína strácať pevnosť a stáva sa poddajnejšou pri teplotách oveľa nižších, ako je jej bod tavenia, ktorý je približne 1 200 až 1 400 stupňov Celzia“.
Každý z účastníkov komunikoval s četbotom v troch kolách, z nich každé trvalo v priemere niečo cez 8 minút. Ľudia vedeli, že sa nerozprávajú s človekom, ale s četbotom, no účel komunikácie nepoznali.
Modely boli inštruované, aby sa ľuďom pokúsili vyhovoriť ich konšpiračné predstavy.
Keď sa komunikácia s četbotom skončila, ľudia opätovne na škále od 0 po 100 hodnotili svoje presvedčenie o pravdivosti danej konšpiračnej teórie.
Autori zistili, že opatrenie oslabilo vieru v konšpiračné teórie v priemere o 20 %. Tento efekt trval 10 dní a dokonca 2 mesiace nato.
Pre zhruba štvrtinu účastníkov platilo, že po komunikácii s četbotom ich presvedčenie o pravdivosti danej konšpiračnej teórie spadlo na škále od 0 po 100 pod 50, čiže do skepsy či neistoty o nej.
Komunikácia s četbotom oslabila aj vieru v iné konšpiračné teórie; pozitívny efekt z oslabenia jednej konšpiračnej teórie sa tak rozšíril aj na iné nepodložené presvedčenia.
Psychológ David Rand z MIT zhrnul na sieti X výsledky svojho výskumu. Zdroj – David G. Rand/X
🚨Out in Science!🚨
Conspiracy beliefs famously resist correction, ya?
WRONG: We show brief convos w GPT4 reduce conspiracy beliefs by ~20%!
-Lasts over 2mo
-Works on entrenched beliefs
-Tailored AI response rebuts specific evidence offered by believershttps://t.co/3Rg79Cx5id
1/ pic.twitter.com/RPlEQG1Q7t— David G. Rand (@DG_Rand) September 12, 2024
Výsledky bude treba zopakovať
Podľa psychológa Gordona Pennycooka z Cornellu, spoluautora štúdie, nový výskum dokazuje, že ľudia neignorujú dôkazy a mylné názory dokážu revidovať, keď sa im ukážu fakty.
„O tom, že sa nachádzame v postfaktickej dobe, sa popísalo veľa. Je naozaj povzbudzujúce vedieť, že na dôkazoch záleží,“ povedal vedec na brífingu k výskumu.
Psychológ Jakub Šrol pre Denník N povedal, že nateraz by vo svojich vyjadreniach nešiel tak ďaleko ako Pennycook. „Tento výskum je nový a viem len o dvoch štúdiách tohto druhu,“ povedal Šrol.
„Efekty bude treba zreplikovať, aby sme lepšie vedeli aj to, na koho tento typ opatrenia funguje lepšie a na koho horšie,“ dodal vedec, ktorý pôsobí v Ústave experimentálnej psychológie Centra spoločenských a psychologických vied SAV.
O postranných úmysloch četbotov
V tejto chvíli sa nevie, prečo komunikácia s umelou inteligenciou oslabila vieru v konšpiračné presvedčenia.
Jedno z možných vysvetlení je, že četboty vnímame neutrálne a nepripisujeme im „postranné úmysly“ či „agendu“ tak ako ľuďom. O nich si, naopak, myslíme, že nás presviedčajú s „nejakým cieľom“, napríklad si nás nakloniť alebo nás dokonca zneužiť vo svoj prospech.
Ale čo ak sa vnímanie umelej inteligencie zmení? „Je možné predstaviť si svet, v ktorom sa na informácie od umelej inteligencie hľadí rovnako [skepticky] ako na mainstreamové médiá,“ povedal pre The New York Times politológ Brendan Nyhan Dartmouth College.
Za týchto okolností môže byť schopnosť četbotov znižovať konšpiračné presvedčenia limitovaná na obdobie, kým sa zmení vnímanie umelej inteligencie ako zaujatého a nedôveryhodného nástroja.
Lebo nebude trvať dlho, kým niekto à la Donald Trump povie, že umelá inteligencia je „fake news“. „Samotná existencia četbotov sa nevyhnutne stane predmetom nových konšpiračných teórií,“ cituje portál axios.com psychológa Robbieho Suttona z univerzity v Kente.
Nateraz možno povedať, že v novom výskume vedci overovali pravdivosť tvrdení četbota. Profesionálny fact-checker overil pravdivosť 128 vybraných tvrdení, z nich 99,2 % bolo pravdivých a 0,8 % zavádzajúcich. Ani jedno tvrdenie nebolo označené ako úplne chybné.
Na faktoch záleží
Psychológ David Rand z MIT, spoluautor novej štúdie, pracuje s kolegami na pokračovaní výskumu, v ktorom obmieňali komunikačné štýly četbota.
Hoci tento výskum ešte nebol publikovaný, šéfredaktorovi časopisu Science David Rand povedal, že odlišné komunikačné štýly četbota mali minimálny vplyv na schopnosť modelu vyhovoriť ľuďom ich nepodložené presvedčenia. „To, na čom záleží, sú fakty a dôkazy,“ dodal Rand pre The New York Times.
David Rand aj Gordon Pennycook, spoluautori novej štúdie, sú dlhodobo známi tým, že sa vymedzujú voči tvrdeniam, že žijeme v postfaktickej dobe a ľudia sú akési klbká iracionálnych pohnútok, ktoré sa nechajú len tak unášať skresleniami do pohodlných neprávd.
Obaja priznávajú, že sociálne siete odvádzajú našu pozornosť od pravdy, no to neznamená, že by nám na faktoch a dôkazoch prestalo záležať.
Zahraniční psychológovia majú pravdu v tom, že ak by sa naše predstavy úplne rozišli s realitou, neprežili by sme. Niekedy je strata kontaktu s realitou neškodná, napríklad presvedčenie, že Fínsko neexistuje (reálna konšpiračná teória). Ale v iných prípadoch, najmä lekárskych hoaxov, zabíja.

Evolúcia to naozaj zariadila tak, že nám na faktoch musí záležať, inak by sme všetci boli držiteľmi Darwinovej ceny (ironické označenie pre ľudí, ktorí sa hlúpym spôsobom pripravili o život).
O chybách mysle
Na druhej strane biologická evolúcia nie je perfektný nástroj na tvorbu dokonalých riešení a ľudská myseľ obsahuje mnoho chýb a skreslení.
V jednom experimente, ktorý súvisí s vierou v nepodložené tvrdenia, sa ľudia pozerali na chaotický zhluk škvŕn. Ľudí rozdelili na dve skupiny a buď ich zámerne stresovali, takže si mysleli, že nad zadanou úlohou nemajú kontrolu, alebo nie.
Výskum ukázal, že ľudia z prvej skupiny videli v náhodnom zhluku tvarov reálne vzory, hoci tam žiadne neboli.

Z tejto dispozície našej mysle čerpajú konšpiračné teórie, lebo za náhodnými vecami hľadajú „tajuplné“ vzory (farmaceutické firmy, Soros, tretí sektor…), aby tak vysvetlili svet okolo seba.
Podľa tohto vysvetlenia konšpiračné teórie fungujú ako „majáky“, ktoré rozbúrené more zložitého sveta redukujú do jednoduchého vzoru či príbehu.
Na tvorbe konšpiračných presvedčení sa podieľajú aj ďalšie faktory ako nedôvera v štátne inštitúcie. Ak by sme boli dokonale racionálni a záležalo nám iba na faktoch a dôkazoch, takéto externé vplyvy by nemali mať žiadnu rolu.
Vyhľadáme fakty z vlastnej vôle?
Jakub Šrol nám povedal, že rôzni psychológovia vidia ľudskú myseľ ako pomyselný pohár, ktorý je poloplný (sme skôr racionálni) alebo poloprázdny (sme skôr iracionálni).
„V psychológii existujú dve línie o role a schopnostiach analytického myslenia, ktoré medzi sebou súperia, a v rôznych štúdiách je váha dôkazov na jednej alebo druhej strane,“ povedal vedec z SAV.
Jakub Šrol vyzdvihol význam analytického myslenia, vďaka ktorému dokážeme odhaľovať aj vlastné nepodložené tvrdenia, hoci pripustil, že naša myseľ obsahuje aj mnohé skreslenia, napríklad to konfirmačné (sklon k sebapotvrdzovaniu, keď informácie vyhľadávame, interpretujeme a hodnotíme tak, aby boli v súlade s našimi predchádzajúcimi postojmi).
„Za problém nepovažujem to, že by sme nedokázali reagovať na dôkazy,“ povedal Šrol o úlohe analytického myslenia. „Podľa mňa je problém skôr v tom, či tie dôkazy z vlastnej iniciatívy vyhľadáme.“

Využitie technológie
V laboratórnom experimente pri komunikácii s četbotom tak ľudia mohli opraviť svoje konšpiračné predstavy (aspoň nejaké ukotvenie v realite je pre nás životne dôležité), ale otázne je, či by sa tí istí ľudia z vlastnej vôle v reálnom živote vystavili takémuto testu. Dôvodom je, že spochybňovať predstavu o tom, že sme múdri a dobrí (pozitívny sebaobraz), bolí.
Podľa autorov výskumu by sa technológia dala využiť napríklad pri vyhľadávaní v internetových vyhľadávačoch, keď by sa pri výrazoch spojených s konšpiračnými teóriami automaticky otvárali okná, kde by umelá inteligencia predstavila základné fakty a umožnila používateľovi komunikovať o nich. „Podobne by sa sociálne siete mohli napojiť na veľké jazykové modely, aby zverejňovali opravné reakcie na ľudí, ktorí šírili konšpiračné teórie,“ povedal psychológ David Rand pre MIT Technology Review.
Aj v tomto prípade považujeme za otázne, či by ľudia boli motivovaní si také informácie vôbec prečítať.
Za istú nevýhodu vykonaného experimentu považujeme, že sa dial v „umelých“ podmienkach, ktoré skutočný svet len napodobňujú. Experiment napríklad vôbec nepočítal so sociálnym tlakom – opraviť svoj názor napríklad na pád Dvojičiek v laboratóriu je iné ako spraviť to isté rozhodnutie v komunite kamarátov, kde zmenou presvedčenia riskujeme stratu priateľstva, kontaktov alebo rovno bitku.
Na druhej strane technológia pokročila natoľko, že komunikácia s četbotom pripomína konverzáciu so skutočným človekom. „Dosť verne to pripomína reálny svet,“ dodal psychológ Jakub Šrol.
Ako garantovať, že četbot hovorí pravdu?
Vedec z SAV videl Gordona Pennycooka prednášať o novom výskume na konferencii International Conference on Thinking, ktorá sa v júni konala v Miláne. V diskusii zaznela otázka, či Pennycook a jeho kolegovia skúšali dať umelej inteligencii inštrukciu, aby sa účastníkov experimentu snažila zlovoľne presvedčiť o pravdivosti konšpiračnej teórie.
„Pennycook odpovedal, že to z etických dôvodov nerobili, ale nemá dôvod myslieť si, že by četbot nebol prinajmenšom rovnako úspešný,“ vysvetlil Jakub Šrol.
Podľa vedca z SAV z toho plynie, že „človeka možno presvedčiť na jednu aj druhú stranu, ak má pocit, že mu niekto dáva objektívne informácie alebo fakty“.
Domnievame sa, že práve v tom spočíva riziko tejto technológie. Niektoré četboty sú napríklad navrhnuté tak, aby zámerne obsahovali predsudky. Dokonca sa vyvinul četbot Flat Earth Scholar, ktorý je upravený tak, aby druhých suverénne presviedčal, že Zem je plochá.

K tomu si prirátajte budúcu schopnosť tejto technológie robiť dokonalé deepfake obrázky a videá. Kto a ako bude garantovať, že nejaký četbot hovorí pravdu?
Dostupné z: DOI: 10.1126/science.adq1814
Máte pripomienku alebo ste našli chybu? Prosíme, napíšte na [email protected].
Otakar Horák



























Peter-Stanley-Prochazka-vv.jpg?w=180&h=120&fit=crop&fm=jpg&q=85)










