Autor je výskumník v Kempelenovom inštitúte inteligentných technológií a odborný asistent na Právnickej fakulte UK v Bratislave
Spustenie ChatGPT vyvolalo obrovskú diskusiu nielen medzi odborníkmi, ale aj medzi laickou verejnosťou. O jeho schopnostiach, ale aj obmedzeniach vzniklo množstvo článkov či rozhovorov, v ktorých sme sa dozvedeli, že tento šikovný četbot by dokázal úspešne zvládnuť slovenskú maturitu alebo vysvetliť vtip. Ale už trocha menej sa hovorí aj o rizikách, ktoré jeho nasadenie a používanie so sebou prináša. Je preto prirodzené pýtať sa, ako sa na takýto nástroj vzťahuje aktuálna právna regulácia a či by jej mali podobné systémy využívajúce umelú inteligencie vôbec podliehať.
ChatGPT je četbot, teda softvér založený na spracovaní prirodzeného jazyka, ktorý nám poskytuje odpovede na položené otázky. Pre zvedavého užívateľa predstavuje virtuálneho partnera v konverzácii, ktorého sa môže opýtať prakticky na čokoľvek. Aj za cenu, že nemusí od neho dostať uspokojivú či správnu odpoveď. Zároveň však nie je vylúčené ani využitie ChatGPT pri šírení propagandy alebo dezinformácií, napriek tomu, že jeho prevádzkovateľ sa snaží takéto využitie limitovať.
V tomto momente, bohužiaľ, neexistuje komplexná regulácia systémov umelej inteligencie, a teda ani pre ChatGPT. Ak by sme chceli hľadať právne normy, ktoré by sme v tomto prípade mohli aplikovať, museli by sme sa pozrieť do všeobecných právnych úprav. Napríklad v otázke zodpovednosti platia právne úpravy občianskeho práva, trestného práva, správneho práva alebo spotrebiteľského práva. Tradičné inštitúty si však nie vždy vedia poradiť s otázkami, ktoré do práva prináša umelá inteligencia.
Keďže ide o softvér, z hľadiska jeho regulácie by sa malo aplikovať autorské právo, ktoré špecificky chráni aj počítačové programy. Prirodzene, kľúčovú úlohu tu hrá aj legislatíva na ochranu osobných údajov, keďže z konverzácií s četbotom je možné okrem iného vyvodiť informácie ohľadom politickej afiliácie, zdravia alebo sexuálnej orientácie užívateľov. Napriek tomu, že európske nariadenie o ochrane osobných údajov (GDPR) upravuje viaceré zaujímavé inštitúty ako napríklad právo nebyť predmetom automatizovaného rozhodovania, jeho výklad okresal ich aplikovateľnosť na minimum.
Je teda viac-menej jasné, že ak sa chceme zamýšľať nad právnou úpravu umelej inteligencie, vrátane ChatGPT, mali by sme premýšľať o nových inštitútoch a vlastnej právnej úprave.
Pripravte sa, prichádza AI akt
Táto situácia sa pravdepodobne zásadne zmení už v blízkej budúcnosti. Ešte na jar 2021 predstavila Európska komisia prvý komplexný návrh regulácie systémov umelej inteligencie v Európskej únii v podobe návrhu nariadenia o umelej inteligencii, tzv. AI akt. Aktuálne prebiehajú diskusie a vyjednávania o jeho presnom znení, ale očakáva sa, že koncom tohto roka by sme mohli poznať jeho finálnu verziu.
Navrhované znenie AI aktu bude napríklad zakazovať určité praktiky, akými sú sociálny kreditný skóring vykonávaný orgánmi verejnej moci (ktorý poznáme napr. z Číny) alebo využívanie podprahových a manipulatívnych techník ovplyvňujúcich ľudské vedomie.
Gro navrhovanej regulácie sa však má týkať systémov AI vysokého rizika, akými sú napríklad biometria či systémy ovplyvňujúce zamestnanosť, kritickú infraštruktúru alebo presadzovanie práva. Firma, ktorá bude chcieť uviesť podobný systém do prevádzky, bude musieť podstúpiť proces posudzovania zhody a následne získať potrebný certifikát. V rámci tohto procesu je potrebné preukázať, že systém AI spĺňa všetky potrebné požiadavky, ako napríklad, že systém umožňuje vykonávať nad sebou ľudský dohľad, či dodržiavanie férovosti a limitácia potenciálnej diskriminácie, alebo uchovávanie záznamov o aktivite systému (logovanie). V praxi ide o proces, ktorý napodobňuje produktovú reguláciu, takže aj na systém AI sa bude z hľadiska práva hľadieť ako na produkt.
Zjednodušene povedané, tak ako musia práčka alebo mobilný telefón pred uvedením na náš trh spĺňať určité regulačné požiadavky, tak podobne aj vysokorizikový systém AI bude musieť naplniť definované parametre určené AI aktom.
Kľúčovou otázkou z pohľadu AI aktu je to, či bude aj ChatGPT chápaný ako systém vysokého rizika? Zdá sa, že nie vždy to tak bude. Četboty vyhodnocuje návrh AI aktu ako systémy nízkeho rizika, pre ktoré je potrebné splniť iba určité požiadavky transparentnosti. To znamená, aby užívateľ vedel, kedy komunikuje so strojom a nie s človekom. Mimochodom, aj samotný ChatGPT sa považuje za AI systém nízkeho alebo stredného rizika.
Súčasne prebieha stále živá diskusia, akým spôsobom regulovať v AI akte systémy AI na tzv. všeobecné použitie (general-purpose AI systems), kam by jazykové modely bez preddefinovaného účelu mohli teoreticky spadať. Na druhej strane, ak by bol systém ako ChatGPT využitý v rámci jednej z oblastí vysokého rizika (napríklad pre pracovné pohovory alebo na prijímanie trestných oznámení), pozeral by sa naň AI akt ako na systém vysokého rizika a teda bez ohľadu na úpravu pre systémy AI všeobecného použitia.
Takže situácia ostáva pre ChatGPT, aspoň nateraz, vcelku nejasná. Pravdepodobne bude záležať na kontexte použitia, ktorý rozhodne, či ho chápať ako nízkorizikového četbota, systém na všeobecné použitie, alebo ako systém s vysokým rizikom.
Prečo vôbec regulovať umelú inteligenciu (a ChatGPT)?
Jednoducho preto, lebo súčasné nastavenie právneho poriadku nestačí a je potrebné reagovať prostredníctvom novej regulácie. Rovnako však musíme citlivo vyvážiť regulačné zásahy a myslieť pritom aj na priestor potrebný na inovácie, keďže aj dobre mienené normy vedia výrazne obmedziť kreativitu a technologický rozvoj.
Na druhej strane je dôležité, aby nové technológie vrátane umelej inteligencie nespôsobovali škody a negatívne dôsledky v akomkoľvek rozsahu. Práve preto sa domnievame, že regulácia umelej inteligencie by mala klásť dôraz na otázky zodpovednosti, špecifikovať požiadavky na dáta potrebné pre trénovanie modelov, či dbať na otázky férovosti, transparentnosti a ľudského dohľadu.
Nemenej dôležitá je aj otázka ochrany práv človeka pred rozhodnutiami stroja ako právo na ľudský zásah, právo namietať alebo právo nepodliehať rozhodnutiu vydaného umelou inteligenciou.
A nad týmto všetkým musí existovať dohľad zo strany štátov a iných subjektov či občianskej spoločnosti (napríklad aj prostredníctvom výskumníkov).
A čo na to ChatGPT?
Koniec-koncov, aj ChatGPT súhlasí s tým, že by mal byť regulovaný. Dokonca vymedzuje aj presné oblasti, kde by ho regulácia mohla zasiahnuť. Správne uvádza svoje možné zneužitia v oblasti šírenia dezinformácií, ale zároveň v jeho odpovedi absentuje zohľadnenie požiadaviek, ktoré sú kľúčové pre jeho autonómiu, ako napríklad miera ľudského dohľadu alebo vysvetliteľnosť jeho odpovedí.
Našťastie konečné rozhodnutie, ako regulovať podobné technológie, bude (a malo by to tak aj ostať do budúcna) predovšetkým na nás, ľuďoch.
Máte pripomienku alebo ste našli chybu? Prosíme, napíšte na [email protected].
Matúš Mesarčík
































