A Google DeepMind már évek óta használ különféle játékokat arra, hogy a különböző mesterséges intelligenciáit fejlessze, ráadásul már igen komoly sikereket sikerül elérni: néhány évvel ezelőtt profi StarCraft 2 játékosokat nyomott le az AlphaStar, azelőtt pedig a világ legjobb Go játékosán kerekedett felül az AlphaGo névre keresztelt szuperszámítógép.
A csapat most egy újabb mérföldkövet ért el, ugyanis az Agent57 nevű legújabb mesterséges intelligencia elért arra a pontra, hogy az Atari 2600-ra megjelent játékok mindegyikét mesterien tudja játszani. A fejlesztők elmondása szerint a játékok jellegükből adódóan kiválóan alkalmasak arra, hogy általánosabb intelligenciákkal kísérletezzenek:
"A játékok nagyon jók adaptív algoritmusok fejlesztésére: rendkívül sokrétű feladatokat és kihívásokat rejtenek, amelyekhez a játékosoknak kifinomult stratégiákat kell kidolgozniuk, viszont ugyanakkor a pontszám egy nagyon egyszerű mérőszám arra, hogy kövessük a fejlődést. A végső célunk nem egy olyan rendszer kifejlesztése, amelyik profin játszik, hanem inkább egy olyan, amelyik sokféle kihívást le tud küzdeni."
A publikációban megemlítették, hogy míg az Agent57 idővel egyre jobb eredményeket tudott elérni, maga a tanulási folyamat rengeteg számítást és időt igényelt, ezért a következő iterációban mindenképpen ezen kell majd a legtöbbet csiszolniuk.
Kíváncsiak vagyunk, meddig sikerül majd fejlődnie az MI-knek, de azért valahol aggódunk is, elvégre mi is Terminátor filmeken nőttünk fel, tudjuk hova vezet ez.