Denník N

Nový program od Google DeepMind sa sám učí hrať hry

Program sa sám naučil hrať hry a vo väčšine prípadov bol lepší ako ľudia. Reprofoto - Youtube
Program sa sám naučil hrať hry a vo väčšine prípadov bol lepší ako ľudia. Reprofoto – Youtube

Vývoj umelej inteligencie napreduje míľovými krokmi. Najnovšie sa vedcom podarilo vytvoriť program, ktorý sa dokáže sám učiť, zvládať celý komplex úloh a v daných činnostiach predčiť ľudských konkurentov.

Vedci z Google DeepMind, spoločnosti na vývoj umelej inteligencie, vytvorili počítačový program, ktorý sa celkom sám naučil hrať 49 arkádových hier, vrátane klasík ako je Pong alebo Space Invaders.

Štúdia práve publikovaná v časopise Nature informuje, že vo viac ako polovici z nich bol tento program úspešnejší ako profesionálni hráči.

Všestrannosť programu

Už predtým sa vedcom podarilo vytvoriť iné zariadenia, ktoré dokázali poraziť ľudí v niektorých z činností. Najslávnejším príkladom z minulosti je počítač Deep Blue od IMB, ktorý v roku 1997 zvíťazil nad šachovým veľmajstrom Garrym Kasparovom.

Lenže nový program od Google DeepMind je celkom iná liga. Je to vlastne úplne po prvýkrát, čo sa vedcom podarilo vytvoriť program, ktorý nevyniká iba v jednej činnosti – tak ako Deep Blue od IBM, ktorý vedel hrať iba šach –, ale v celom spektre komplexných úloh.

Učí sa sám

Program z Google sa od Deep Blue od IMB odlišuje aj v inom, podstatnom ohľade. Na rozdiel od Deep Blue, ktorý bol naprogramovaný tak, že obsahoval obrovské množstvo dát a sadu presne stanovených inštrukcií, ako v určitej situácii na šachovnici ťahať figúrkami, mal nový program od Google – predtým než sa pustil do hrania – k dispozícii iba tie najzákladnejšie informácie.

„Jediné informácie, ktoré sme systému dali, boli informácie o pixeloch na obrazovke a zadanie dosiahnuť vysoké skóre. Na všetko ostatné musel program prísť sám,“ povedal pre BBC Demis Hassabis, viceprezident DeepMind a spoluautor štúdie.

Vedci sa pri navrhovaní programu inšpirovali fungovaním ľudského mozgu, napríklad úlohou dopamínu v systéme odmien. Túto funkciu simuloval algoritmus tak, že sa pomocou metódy pokusu a omylu – napríklad, či ísť vľavo alebo vpravo – učil, ktoré rozhodnutie mu prinesie najväčšiu odmenu.

Program sa tak sám dokázal adaptovať na prostredie a adekvátne na neho reagovať. Inými slovami, neustále sa učil interakciou s okolitým svetom.

„Môže sa to zdať triviálne, že tieto hry sú z 80. rokov a riešenia pre ne môžete vymyslieť poľahky,“ povedal Hassabis pre BBC. „Čo už ale triviálne nie je, je to, že tu máte systém, ktorý sa dokáže učiť z obyčajných pixelov a vstupných údajov, čo má robiť.“

Program hral celkovo 49 hier, vrátane hier ako Space Invader, tenisu alebo boxu a v 29 z nich dosiahol výsledky porovnateľné alebo dokonca lepšie ako ľudia.

Video časopisu Nature približuje fungovanie programu od Google DeepMind.

Inside DeepMind. Zdroj: Youtube

Budúcnosť

Dôvod, pre ktorý sú ľudia dominantným živočíšnym druhom na Zemi, je ten, že sa dokážeme veľmi pružne adaptovať na podmienky prostredia, v ktorom sa nachádzame. Programátori dnes začínajú túto našu jedinečnú schopnosť prenášať intenzívne aj do robotiky.

V najbližšej dobe sa tak zrejme budeme môcť tešiť na zariadenia, ktoré budú schopné sami sa zorientovať v obrovskom množstve informácií, vyhľadať v nich užitočné vzory a adaptovať sa na nové, nepredvídané podmienky.

Dostupné z: doi:10.1038/nature14236

🗳️ Ak chcete podporiť našu prácu pred druhým kolom volieb aj nad rámec predplatného, môžete to urobiť aj darom.🗳️

Máte pripomienku alebo ste našli chybu? Prosíme, napíšte na [email protected].

Veda

Teraz najčítanejšie