A Google tudósai kifejlesztettek egy különleges mesterséges intelligenciát, tesztelés képpen pedig rászabadították a 80-as, 90-es évek Atari játékaira, hadd ’szórakozza’ ki magát. Az eredmény pedig csupa tökéletesen végigvitt játék.
A londoni székhelyű Deep Q-network (DQN) DeepMind nevű mesterséges intelligenciája, - amit a Google tavaly vásárolt fel -, képes Atari játékokat játszani a tanuló képességének köszönhetően. Ehhez nem használ fel mást, mint a képernyő pixel-információit, valamint a végigjátszásokkal elért pont értékeket.
A program természetesen nem tudja előre a játékok szabályait, egyszerűen, csak „ráeresztették”, mint ahogyan tették ezt anno a videojáték lázban égő tizenévesekkel is. Egyetlen információként annyit kapott, hogy cél a minél magasabb pontszám elérése, és a tanulás, hogy aztán a nyert tapasztalatokat a következő játékoknál felhasználhassa. Az későbbi elemzések során a mesterséges intelligencia működéséről kiderült, hogy több helyen hasonlít az emberi gondolkodásra és tanulásra is.
A DQN algoritmusát 49 játékon tesztelték. Ezek közül 29-ben jobb eredmény ért el, mint az emberi játékosok 75%-a. Ez a "mesterséges" intelligenciától igazán kiemelkedő teljesítménynek számít, főleg a játékok sokszínűsége miatt, hiszen volt oldalnézetes lövöldözős, verekedős és autós játék is a palettán. Ezekről pedig ugye korábban az algoritmus még csak nem is tudott.
„Összességében a munkánk megmutatja a technológiában rejlő lehetőségeket és potenciált. A gépi tanulási technológiák különféle inspirációs metódusokkal olyan entitásokat hozhatnak létre, amelyek nem csak a tanulásra, de az adott terület professzionális szinten való űzésére is képesekké válhatnak.” – nyilatkozták a készítők.