Denník N

O etických problémoch umelej inteligencie

Existuje mnoho oblastí, v ktorých nám už dnes dokážu algoritmy umelej inteligencie efektívne pomáhať. Avšak pri ich vývoji, nasadzovaní a používaní vyvstávajú nové problémy, ktoré majú nielen svoju technickú, ale aj etickú povahu. Transparentnosť a vysvetliteľnosť rozhodovania AI, predsudky v dátach, miera ľudskej autonómie, zodpovednosť a ochrana privátneho priestoru tvoria jadro tém, ku ktorým potrebujeme proaktívne viesť zmysluplnú debatu spolumoderovanú aj odborníkmi na etiku. Našim cieľom by mal byť vývoj takých nástrojov, ktoré nielenže nenaštrbia dôveru v zmysluplné využitie AI, ale budú aj napĺňať hodnoty dobrého života.

Realistické fotografie neexistujúcich osôb. Preslov známeho politika, ktorý v skutočnosti nikdy nezaznel. Hlasový asistent, ktorý vám dohodne voľné miesto v reštaurácii. Robotka so štátnym občianstvom. To nie sú námety pre sci-fi román, ale reálne príklady z praxe, s ktorými sa už dnes môžeme v súvislosti s umelou inteligenciou stretnúť. Možno vám pri slovnom spojení umelá inteligencia (AI) a budúcnosť ľudstva napadnú iné, podstatne katastrofickejšie scenáre. Ale aj svet bez Skynetu, Matrixu, či inej superinteligencie prináša množstvo problémov, ktoré súvisia s umelou inteligenciou. Tieto problémy sú rovnako pálčivé a budú mať zásadný dopad na ďalšie smerovanie našej spoločnosti.

Sústredíme sa na problémy a riziká, spojené s tzv. úzkou umelou inteligenciou. Teda strojov, ktoré využívajú algoritmy na automatizované riešenie špecifickej oblasti ľudských úkonov. Andrew Ng, jeden z popredných predstaviteľov AI scény, hovorí pri úzkej AI o automatizácii úkonov, ktoré dokáže bežne človek vykonať do jednej sekundy. Medzi ne patrí napríklad rozpoznávanie objektu na fotografii, prepis hovoreného slova do textu alebo vyhnutie sa prekážke na ceste. Pri nasadzovaní AI samozrejme narážame na množstvo technických problémov. Na druhú stranu by sme už v tejto fáze mali vedieť povedať ktoré použitia AI budeme pokladať za morálne správne a spoločensky prospešné. Otázky, ktoré si v súvislosti s nasadzovaním umelej inteligencie musíme klásť teda majú nielen svoj technický, ale aj etický rozmer. Aké etické problémy a riziká teda môžu vyvstať pri návrhu, vývoji a používaní takto chápanej AI? A máme sa pri ich riešení o čo oprieť?

Keď AI nevidno pod kapotu

Prvým z veľkých etických problémov AI je transparentnosť a vysvetliteľnosť jej rozhodnutí, k čomu sa viaže aj problém vysledovateľnosti prípadných chýb v automatickom rozhodovaní stroja. Príkladom toho, ako málo transparentné je rozhodovanie AI a aké vážne dopady na ľudí to môže mať, sú programy, ktoré predpovedajú kriminálne správanie. Môže ísť napríklad o algoritmy, ktoré odhadnú, ktoré osoby sa s najväčšou pravdepodobnosťou zapletú do nelegálnej činnosti alebo posudzujú pravdepodobnosť recidívy odsúdených kriminálnikov. Medzi takéto nástroje patrí systém, ktorý vypočíta mieru nebezpečnosti odsúdencov pre spoločnosť. Ukázalo sa však, že niektoré rozhodnutia AI boli v tomto prípade diskriminačné a rasovo orientované. Jeden z dôvodov mohol byť ten, že AI získava svoje schopnosti pozorovaním historických dát. A ak boli rozhodnutia amerických súdov v minulosti diskriminačné, AI bola vytrénovaná na zlých dátach a tieto predsudky v dátach zdedila. Do hry tu vstupujú ale nielen zdrojové, resp. trénovacie dáta, ale aj samotná konštrukcia algoritmu. Overiť správnosť rozhodovania AI, hlavne v prípade nástrojov, ktoré využívajú neurónové siete, môže byť tak neľahká, aj keď nie nezrealizovateľná úloha. Podobné modely rozhodovania sa dnes používajú napríklad v bankovníctve alebo poisťovníctve. Je pochopiteľné, že chceme poznať dôvody prečo povedzme algoritmus niekomu dá a inému nedá finančný úver. Legitímnou otázkou ostáva, do akej miery by sme mali byť transparentní. Ak dáme do útrob týchto algoritmov nahliadnuť všetkým, môžu to zneužiť aj podvodníci.

AI na reťazi

Ďalšia skupina etických problémov sa viaže na autonómiu AI a jej dopad na autonómiu človeka. Mali by sme totiž vedieť povedať, koľko autonómie a kedy si stroje zaslúžia. To znamená, v ktorých situáciách bude AI konať aj bez dohľadu človeka, prípadne za akých okolností môže mať rozhodnutie AI prednosť pred rozhodnutím človeka. Dnes okrem už spomínaných nástrojov pre vyhodnocovanie poistnej udalosti alebo určenie rizikovosti žiadateľa o úver, máme aj AI pre včasnú identifikáciu závažných chorôb alebo pre riadenie cestnej premávky. V akých prípadoch dovolíme, aby povedzme diagnóza AI mala vyššiu autoritu ako diagnóza ľudského lekára? A sme pripravení nasadiť autonómne automobily na naše cesty a nechať ich rozhodovať v kolíznych situáciách aj bez nášho vedomia alebo bez toho, aby nás upozornili, aké dôsledky svojim konaním môžu spôsobiť? Musíme si teda stanoviť, v ktorých oblastiach a prípadoch dovolíme AI rozhodovať samostatne, prípadne kedy bude musieť byť súčasťou rozhodnutia stroja aj ľudské overenie.

S mierou autonómie je spätá aj otázka zodpovednosti. Kto zodpovie za nehodu autonómneho auta? Bude to výrobca, používateľ AI alebo nebodaj samotný stroj? Predstava právnej zodpovednosti samotného AI algoritmu vyznieva prinajmenšom zvláštne, ale rovnako sme si kedysi nevedeli predstaviť právnu zodpovednosť firiem. Zdá sa, že napríklad v prípade plne autonómnych automobilov budeme musieť rozlišovať medzi osobou zodpovednou (reliable) za nehodu, osobou, ktorá bude braná na zodpovednosť (accountable) a osobou, ktorá bude naprávať vzniknuté negatívne dopady (liable). Toto všetko budeme musieť ale vyriešiť najneskôr predtým, ako vypustíme plne autonómne vozidlá na naše cesty. Je možné, že to dokážeme aj bez potreby deklarovať “práva” autonómnych strojov alebo bez paušálneho sankcionovania vodičov autonómnych automobilov nejakou formou povinného poistenia. Odborná debata by však mala prebehnúť ešte predtým, ako sa pustíme do regulácie AI a nových právnych úprav, prípadne do špekulácií nad prisúdením vedomia pre umelú inteligenciu.

Veľký brat a AI

Samostatnou veľkou oblasťou, ktorú treba spomenúť je miera zasahovania AI do ľudského života. Ako príklad uveďme technologické spoločnosti, ktoré sa zaoberajú zberom, analýzou a vyhodnocovaním zákazníckych dát v online alebo fyzickom priestore. Ich nástroje automatizovane zbierajú a vyhodnocujú, častokrát veľmi detailné údaje o správaní návštevníkov kamenného obchodu alebo e-shopu. Následne sa aj za pomoci AI snažia odhadnúť zákaznícke reakcie voči ďalším vplyvom, počínajúc vlastnými aktivitami obchodníka až po aktuálny stav počasia. Cieľom je zlepšiť zákaznícky zážitok, ale samozrejme aj zisk obchodníka, ktorý na základe zistení AI vie ako sa má pripraviť na budúce správanie svojich zákazníkov.

To vyvoláva hneď niekoľko otázok. Do akej miery majú firmy oprávnenie zasahovať do ľudského súkromia nielen sledovaním verejného priestoru, ale aj jeho interpretáciou a následnou predikciou vzorcov ľudského správania pomocou AI? Do akej miery by mali byť prevádzkovatelia týchto služieb, prípadne samotní obchodníci, úprimní voči svojim zákazníkom, aj nad rámec platných právnych úprav o tom, že k dochádza k spracovaniu dát pomocou AI? Za akých podmienok máme nárok nebyť súčasťou strojového spracovania, prípadne je možné zmysluplne vyvážiť stratu súkromia sledovaných osôb?

Extrémnym prípadom, kedy sa privátnosť, ale aj ľudská dôstojnosť dostávajú do úzadia na úkor iných, prevažne ekonomických a politických záujmov, je tzv. systém sociálneho kreditu. Takýto systém aplikuje v súčasnosti Čína. Jeho cieľom je klasifikácia občanov na základe ich správania voči štátnym inštitúciám. Podobný systém by v Európe pravdepodobne narazil na silný odpor občianskej spoločnosti. Kto ale bude posudzovať etickosť takejto technológie a jej jednotlivých funkcionalít, ak sa niektorá z firiem rozhodne podobný systém vyvinúť aj u nás? Bude to inžinier, ktorý technológiu vyvíja, šéf spoločnosti, štátna inštitúcia alebo niekto mimo prostredia firmy, napríklad nezávislá etická komisia? A aké by mali byť profesionálne a ľudské kvality týchto arbitrov, aby sme mohli dôverovať ich rozhodnutiam?

Ako sa s tým pasujú inde…

Dnes už našťastie máme k dispozícii prvé rámce, ktoré vývoj AI obohacujú aj o etický rozmer. Medzi ne patrí napríklad dokument Ethics guidelines for trustworthy AI vytvorený expertnou skupinou EÚ pre AI. Tento dokument sa snaží pretaviť princípy vychádzajúce zo základných ľudských práv európskeho spoločenstva do usmernení pre vývoj dôveryhodnej umelej inteligencie Made in Europe. Snaží sa pri tom postaviť vývoj AI na etických princípoch, ako sú práve úcta voči ľudskej autonómii, ochrana pred ujmou, férovosť, či vysvetliteľnosť AI. Dôležitou súčasťou tejto iniciatívy je aj pilotný program, ktorý ponúka sadu praktických požiadaviek, voči ktorým môžu vývojári AI validovať svoje vlastné riešenie a do ktorého sa môžu zapojiť aj naše technologické spoločnosti.

Iné podobné iniciatívy majú za sebou už aj reálne implementácie, ako napríklad Ethical Alligned Design alebo Value Sensitive Design. Ponúkajú návody a riešenia etických problémov, ktoré sa opierajú o princípy a hodnoty, ktoré sú hodné nasledovania. Takýchto návrhov a rámcov je však oveľa viac. Podľa dokumentu o vývoji etických AI technológií, ktorý vydali minulý rok vládne a súkromné IT autority v Singapure je úlohou technológií zvyšovať produktivitu človeka. V tomto smere by sme mali mať ako moderná spoločnosť však ešte vyššie ambície. Vyvíjaná technológia by mala byť formovaná nielen potrebou minimalizovať jej negatívny dopad na spoločnosť, ale aj snahou maximalizovať prejav želaných ľudských hodnôt. Podobným smerom sa napríklad uberá iniciatíva AI for Social Good (AI4SG).

… A(I) u nás

Dobrou správou je, že na súvisiacich odporúčaniach pre etickú AI sa pracuje nielen na úrovni EÚ, ale už aj u nás na Slovensku. Za všetky spomeňme aspoň dve aktivity. Tá prvá sa sústreďuje okolo nedávno založeného Slovenského centra pre výskum umelej inteligencie –  Slovak.AI, ktoré vzniklo na pôde Slovenskej technickej univerzity v Bratislave pod záštitou Fakulty informatiky a informačných technológií STU, IT Asociácie Slovenska a Americkej obchodnej komory na Slovensku. Tou druhou je akčný plán digitálnej transformácie Slovenska na roky 2019-2022, ktorý zas vzniká pod záštitou úradu podpredsedu vládu pre investície a informatizáciu a ktorý nadväzuje na Stratégiu digitálnej transformácie Slovenska do roku 2030. V oboch prípadoch bude veľmi dôležité sledovať, do akej miery sa v rámci ich aktivít smerujúcich k podpore konkurencieschopnosti Slovenska na poli AI podarí implementovať aj požiadavky na jej etický rozmer.

Tieto požiadavky by sa pre začiatok mohli dotýkať minimálne štyroch základných oblastí. Tou prvou je posilnenie odborných znalostí o etike umelej inteligencie. Naše skúmania totiž nemusia začínať na zelenej lúke. Môžeme sa poučiť z výsledkov, ktoré už pred nami dosiahli iné štáty  a ktoré sa napríklad odrážajú aj vo vyššie spomenutých dokumentoch. Predovšetkým v tých, ktoré vznikajú na pôde inštitúcií, do ktorých Slovensko patrí (okrem už spomínaného dokumentu expertnej skupiny EU stojí za zmienku aj nedávno zverejnené odporúčanie OECD pre AI). Plus s ohľadom na etické bremeno, ktoré budú musieť niesť vývojári AI musíme konečne zaviesť výučbu etiky minimálne na technických vysokých školách. Druhou oblasťou je zvýšenie informovanosti verejnosti o etických problémoch a vhodných etických princípov pre AI. Musíme nielen počúvať, ako verejnosť vníma riziká a benefity AI, ale vedieť jej aj jasne vysvetliť, ako sa s nimi vysporiadať. Treťou oblasťou, o ktorej musíme hovoriť, by mala byť podpora firiem implementujúcich AI etickým spôsobom. Na konkrétnych príkladoch “dobrých” AI firiem by sme mali ilustrovať prístupy, ktoré sa snažia o etický dizajn AI, a ukazujú, že sa to skutočne dá. Štvrtou požiadavkou na etickú AI je vytvorenie nezávislej autority pre etiku a reguláciu umelej inteligencie, ktorá napomôže pri kultivácii odbornej diskusie o etických aspektoch AI. Pre pozitívne príklady netreba ísť ďaleko, podobná komisia už dlhšiu dobu funguje na poli zdravotnej starostlivosti a biomedicínskeho výskumu.

Nevyrieši sa to samo

Ešte predtým, ako sa pustíme do regulácie AI a začneme tvoriť nové legislatívne rámce upravujúce jej fungovanie, musí u nás prebehnúť zmysluplná diskusia odborne pripravených expertov a dostatočne oboznámenej širokej verejnosti. Treba si povedať prečo (a či vôbec) je prísnejšia regulácia AI potrebná. V prípade, ak to neurobíme, hrozí nám postupná strata dôvery v zmysluplné a spoločensky prospešné využívanie AI. Za príklady takejto nespokojnosti moderných občianskych spoločenstiev voči necitlivému a nepremyslenému nasadzovaniu nových technológii môžeme považovať nedávne odmietnutie konceptu smart city v Toronte alebo zákaz využívania technológií pre automatické rozpoznávanie tvárí v San Franciscu. Na druhej strane, zbytočné prešľapovanie na mieste môže viesť k tomu, že nebudeme schopní naplno využiť potenciál, ktorý nám AI ponúka, prípadne že nás v tejto oblasti predbehnú iné, menej váhavé krajiny. Na podobnú celospoločenskú diskusiu Slovensko zatiaľ však ešte len čaká.

Samozrejme, nie všetky etické problémy AI sú unikátne. Niektoré vyvstavaju už na urovni zberu dát, napr. tie ktoré sa týkajú privátnosti alebo predsudkov v dátach. Aplikácia AI tu len zväčša pridáva len dodatočné vrstvy k problémom, ktoré by sme museli riešiť aj bez jej prítomnosti. Aj na úrovni spracovania dát sú oblasti, ktoré ostanú problematické bez ohľadu na použitie AI, napríklad problémy súvisiace s autonómiou strojov. Inými slovami, niektoré etické problémy AI sme už v minulosti vlastne riešili a o tieto riešenia sa vieme oprieť, aj keď do hry vstúpi umelá inteligencia. Samozrejme za prepodkladu, že vieme, kde máme tieto riešenia hľadať.

To všetko nás vedie k záveru, že zmysluplný a efektívny rozvoj AI bude musieť byť usmerňovaný odborníkmi na posúdenie jej etických dopadov takým spôsobom, aby našiel pochopenie a podporu širokej občianskej spoločnosti.

Poznámka: Niektoré z uvedených myšlienok vychádzajú z filozofických úvah rozpracovaných v odbornom článku, ktorý vznikol v spolupráci autora s A.Greifom a ktorý ešte čaká na svoje publikovanie. Za cenné pripomienky k prvej verzii textu ďakujem M. Pikusovi a M. Bielikovej.

Teraz najčítanejšie

Juraj Podroužek

Je filozof a IT manažér. Venuje sa etike IT, predovšetkým etike umelej inteligencie a hodnotovo orientovanému dizajnu. Zaujíma sa o zapojenie etických hodnôt a princípov do procesu vývoja a nasadzovania IT. Spoluzakladateľ spolku E-tika a člen stálej komisie pre etiku a reguláciu AI. Vedie tím Etika a ľudské hodnoty v technológiách v Kempelenovom inštitúte inteligentných technológií a čiastočne pôsobí aj na Ministerstve investícií, regionálneho rozvoja a informatizácie Slovenskej republiky. Je spolutvorcom podcastu E-tika o digitálnych technológiách a ich spoločenskom a etickom rozmere.