Denník N

Prečo si s nami umelá inteligencia zahrá bullshit bingo

Jednou z vlastností jazykových modelov ako ChatGPT je schopnosť vymýšľať si veci, ktoré nie sú pravda, ale mohli by byť. V službách dezinfoscény teda vyzerajú ako ideálny pomocník. Odpoveď na to, či nám AI v blízkej budúcnosti viac dezinformácií vytvorí alebo odchytí, nám naznačujú predchádzajúce technologické revolúcie. Spoiler alert: dôvodov na optimizmus je málo.

Čo keď natrénujeme AI na statusoch Ľuboša Blahu?

Dezinformačné a konšpiračné texty sú jedny z najľahších žánrov na svete. Ich čítanie aj písanie pripomína vtipnú hru bullshit bingo. Hráči si pri nej z kartičiek odškrtávajú slová, ktoré podľa nich v danom dezinformačnom texte určite zaznejú. Pri Ľubošovi Blahovi by to bola napr. Amerika, prezidentka, liberáli či slniečka. Zoznam kľúčových slov je u konšpiračnej scény ľahko predvídateľný a rovnako ľahko by ste ho vedeli nasypať do generátora dezinformácií.

Ani úroveň článkov na našich dezinfoweboch nie je o nič lepšia a naučiť sa ich napodobniť je pre jazykový model malina. Okrem kľúčových slov tak stroj ľahko naučíte aj spôsob, akým tieto slová spájať do bizarných súvislostí.

Treba si uvedomiť, že dnes automatizovanému generovaniu dezinformačných naratívov bránia iba etické pravidlá tvorcov jazykových modelov a aj kapitál, ktorý na natrénovanie umelej inteligencie potrebujete. S lacnejúcim hardvérom, dostupnejším softvérom a ochotou istej skupiny výskumníkov dať sa do služieb dezinformačných aktérov nás však čakajú komplikované časy.

Generatívne modely umelej inteligencie totiž budú schopné vytvárať presvedčivé dezinformačné články, memečká či statusy jedným klikom a ešte ich aj umne prispôsobovať rôznym cieľovkám.

Výskumný tím na Georgetownskej univerzite už v roku 2021 skúmal dezinformátorské schopnosti jazykového modelu GPT-3, ktorý poháňa aj slávneho četbota ChatGPT. Ukázalo sa, že tento model vie veľmi dobre tvoriť a adaptovať dezinformačné naratívy a napodobňovať literárny štýl konšpiračných teórií typu QAnon.

AI je navyše dobrá v simulácii demografie a hodnotového nastavenia ľudí. Vďaka tomu dokáže generovať presvedčivé texty tak pre konzervatívcov, ako aj pre liberálov, pre ľudí majetných aj marginalizovaných.

AI navyše už dnes dokáže pracovať s rôznymi štýlmi. Dobre zvládne napísať status anonymného trolla, ale zvládol by napríklad aj rap Majka Spirita. Vzdelanejšie publikum vie obalamutiť napohľad dobrou argumentáciou, a keď treba, tak aj vymyslenými zdrojmi.

Konverzácia s jazykovými modelmi je už dnes pre mnohých prekvapivo prirodzená a v dohľadnom čase sa bude zlepšovať. Jej presvedčivosť bude pre nás natoľko silná, že sa jazykové modely pre mnohých stanú informačnou autoritou. AI sa s nami bude rozprávať tak múdro a presvedčivo, že jej bude ľahké uveriť takmer hocičo.

A to stále hovoríme len o textoch. Generované obrázky a videá bude prakticky nemožné odlíšiť od reality.

Fotka z párty, ktorá sa nikdy nekonala, a s ľuďmi, ktorí neexistujú. Vygenerovala ich obrazová AI Midjourney. U dievčaťa s polaroidom netrafila správny počet prstov, ale to sa časom vychytá. Zdroj – twitter.com/mileszim/

Opatrenia sú v plienkach

Nie je ťažké si predstaviť, ako budú trolie farmy a dezinformační aktéri s pomocou AI schopní zaplavovať informačný priestor nezmyslami ešte rýchlejšie a presvedčivejšie ako doteraz.

Ako tomu predísť, už nie je témou sci-fi románov. Sú to konkrétne a aktuálne výskumné problémy, ktoré musia múdri ľudia riešiť už dnes.

Pred chvíľou spomínaní výskumníci z Georgetownskej univerzity sa preto koncom minulého roka stretli s tímom OpenAI. S tvorcami ChatGPT rozoberali výzvy a riziká vyplývajúce zo zneužitia jazykových modelov na tvorbu a šírenie dezinfa. Ich workshop sa udial krátko pred tým, ako OpenAI spustilo verejnú prevádzku ChatGPT. V januári vydali spoločný report, ktorý okrem problémov súvisiacich so zneužitím generatívnej umelej inteligencie na tvorbu dezinfa opisuje aj ich možné riešenia.

Prvou skupinou sú „tvrdé“ opatrenia, ktoré by obmedzili prístup niektorých aktérov k AI modelom alebo zaviedli vládnu reguláciu v oblasti prístupu k dátam či hardvéru. Okrem hrozby neprimeranej štátnej kontroly či korupcie by však v tomto prípade ostala nevyriešená otázka, čo so štátmi typu Rusko alebo Maďarsko, ktorých vlády samy šíria dezinformácie.

Druhá skupina opatrení je tak trochu zo sveta naivných evergreenov. Apelujú na tvorcov AI, aby robili modely „citlivé na fakty“ a aby ich mali dobre zabezpečené proti zneužitiu. Časť zodpovednosti by zároveň radi presunuli na iných. Volajú po posilňovaní mediálnej gramotnosti a sociálne platformy majú podľa nich kontrolovať, či obsah zverejňuje skutočná osoba alebo AI. Vzhľadom na to, aké slabé sú sociálne platformy vo vymáhaní vlastných pravidiel už dnes, je naivné očakávať, že toto by zvládli lepšie.

No a treťou skupinou sú naozaj nápadité opatrenia. Jedným z nich sú tzv. rádioaktívne dáta, ktoré majú fungovať podobne ako kontrastná látka pri zdravotníckych vyšetreniach. Výskumníci navrhujú AI modely cielene „nakŕmiť“ dátami, ktoré detekčnej umelej inteligencii napovedia, že ide o umelo generovaný obsah, a pomôžu jej ho odhaliť. Otázne však je, koľko takýchto „dátových atómoviek“ by bolo treba zhodiť na web, aby sa vzniknuté rádioaktívne dáta prejavili na tvorbe jazykových modelov, a nakoľko etický by takýto masívny zásah do informačného priestoru vlastne bol.

Všetky navrhované opatrenia sú teda dnes skôr námetom na zložité hľadanie konkrétnych riešení. Ako budú nakoniec vyzerať červené čiary, kto a ako ich nakreslí, technicky zrealizuje a zabezpečí proti zneužitiu – to dnes pravdepodobne nevedia ani najlepšie mozgy v AI.

Dobrou správou však je, že si tieto otázky kladú už dnes a môžeme postupne prichádzať na odpovede.

ChatGPT požiadavkám na tvorbu dezinformácií (zatiaľ) odoláva. Vytrénovanie jazykového modelu, ktorý nebude riešiť etické hranice, je však len otázkou času a peňazí.

Aby mohlo byť lepšie, bude musieť byť najprv horšie

Kapacitné obmedzenia a etické reštrikcie ChatGPT sú jediné, čo bráni jeho zneužitiu na tvorbu dezinformácií už dnes. OpenAI ohlásilo zavedenie plateného členstva, čím padne kapacitný limit pre platiacich používateľov ChatGPT.

Pokusy o heknutie etických hraníc ChatGPT alebo nedávno predstaveného četovacieho modulu od Microsoftu budú vývojári priebežne fixovať. No je len otázkou času, kedy niekto (napr. v Číne?) príde s modelom, ktorý nebude riešiť nejaké etické obmedzenia a vygeneruje všetko, čo sa mu zadá.

Otázka zneužitia AI na dezinformačné aktivity teda nestojí tak, že či, ale kedy nastane. Nástup AI je bezpochyby veľká technologická revolúcia, ale nie je prvá svojho druhu. Podobne ako nástup iných technológií v minulosti sa ani táto nezaobíde bez prvotných problémov. Stačí sa pozrieť, čo nám okrem všetkého dobrého so sebou priniesol nástup internetu a sociálnych platforiem. Obe dokázali rýchlo obsadiť práve dezinformátori.

Slovenskí antivaxeri už začiatkom milénia úspešne využili web na šírenie bludov o očkovaní, obsadili nimi diskusné fórum Modrý koník a napokon aj Facebook.

Pandémia covidu a potom vojna na Ukrajine nám znova ukázali, ako problémy spôsobené novými technológiami chytáme za chvost. Dezinfoscéna vyzbrojená algoritmami a slobodou šíriť svoje nezmysly a na druhej strane bezzubé vymáhanie vlastných pravidiel zo strany sociálnych platforiem hodili našu spoločnosť do problémov, v ktorých sa topíme dodnes.

Spomeňme si, kedy začal vznikať európsky akt o digitálnych službách (Digital Services Act – DSA) a koľko ešte bude trvať, kým Európska únia dokope sociálne platformy k aspoň bazálnej zodpovednosti za obsah, ktorý šíria. No a s polarizáciou a psychickými neduhmi, ktoré sociálne platformy minimálne posilňujú, sa naše generácie budú vyrovnávať ešte dlho.

Dezinformátori boli vždy zdatnými „early adopters“ nových technológií a doterajšia skúsenosť s nimi nám nedáva veľa dôvodov myslieť si, že pri AI to bude inak. Krátkodobo preto nie som veľký optimista a stavil by som si i väčšiu sumu peňazí na to, že AI nám v oblasti dezinformácií spôsobí najprv veľké problémy a až následne nám ich pomôže poupratovať.

Ale veľmi rád sa budem v tejto predpovedi mýliť aspoň tak, ako sa dnes mýli ChatGPT.

Peter Jančárik je spoluzakladateľ projektu Konšpirátori.sk a veľa rokov pracoval v komunikácii. Článok pôvodne vyšiel na Denníku N.

Ak sa vám páči, čo robíme, môžete nám poslať jednorazový alebo pravidelný dar. Ak je aj vaším záujmom zdravší informačný priestor, budeme ho radi presadzovať aj ďalej.

Teraz najčítanejšie

Konšpirátori.sk

Sme verejná databáza webových stránok s neserióznym, klamlivým, podvodným, konšpiračným alebo propagandistickým obsahom. Pomôžeme vám zabrániť tomu, aby sa vaša reklama zobrazovala na weboch, ktoré môžu poškodiť vašu reputáciu.