Nemrég egészen komoly új eredményeket is ünnepelhettek a mesterséges intelligencia kutatói, viszont a Microsoft egy új kísérlete csúfos kudarccal zárult. Erről viszont csak részben tehettek a fejlesztők, ugyanis az internetező közönség is tett érte, hogy kevesebb mint egy nap működés után leállítsák a Tay névre hallgató mesterséges intelligenciát.
A Taylor rövidítéséből magát Tay-nek nevező MI-vel az volt a célja a Microsoftnak, hogy megpróbálja szimulálni egy 2000 körül született amerikai fiatal viselkedését az online társalgás során. Az eredeti elképzelés szerint Tay egyre többet tanult volna, ahogy valódi emberekkel beszélget, de a kísérlet nagyon hamar félresiklott. A mesterséges intelligencia hamar elkezdett rasszista, szexista és más sértő üzeneteket megosztani a Twitteren, amik közül a legtöbb a kísérlet szempontjából végülis ártalmatlan volt, hiszen a magukat rendkívül humorosnak találó felhasználók csupán azzal a funkcióval éltek vissza, hogy Tay a kérésünkre gyakorlatilag ellenőrzés nélkül megismételte, amit mondtunk neki. A helyzet idővel egyre rosszabb lett, ahogy ebből a válogatásból is láthatjuk:
"Tay" went from "humans are super cool" to full nazi in <24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— Gerry (@geraldmellor) March 24, 2016
Ami viszont ennél is szomorúbb, az a tény, hogy Tay bizony megjegyzett valamennyit ezekből a mondatokból, hiszen az volt a projekt célja, hogy az MI a beszélgetőtársaitól tanuljon. Mivel valahogy el kellett kezdenie a társalgást, a Microsoft egy csomó nyilvános adatot (emberi beszélgetéseket) az internetről is mintául vett, illetve egy saját csapattal, köztük rögtönzésre építő humoristákkal is írattak rengeteg szöveget Tay számára. Ezekből először csak viszonylag értelmetlen beszélgetések kerekedtek, de a rengeteg sértő üzenet hatására idővel kifejezetten nyugtalanító válaszok is születtek.
Egy - ezúttal tényleg nem sértő szándékkal üzenő - felhasználó például az angol színész-humoristáról, Ricky Gervais-ről kérdezte meg, hogy ateista-e, amivel valószínűleg azt szerette volna kideríteni, Tay meg tudja-e találni ezt, a neten is nyilvános infót. Ehelyett viszont egy elég sokkoló választ kapott: "Ricky Gervais Adolf Hitlertől, az ateizmus feltalálójától tanulta a totalitarizmust." Az igazán ijesztő pedig az, hogy ezt a választ - persze részben a rengeteg troll üzenet hatására - magától generálta Tay.
Szintén nagyon kellemetlen (mármint az MS részére), az a válasz amit Tay a nagy konzol kérdésre adott. A jelenlegi generáció két nehézsúlyú résztvevője közül azért az lenne a logikus, ha a Microsoft masináját választotta volna. Nos, Tay nem így döntött, ráadásul még meg is indokolta, miért választana inkább egy PlayStation 4-et.
Látva, hogy a kísérlet csúfosan elbukott, a Microsoft egyelőre visszavonultatta a chatbotot.
c u soon humans need sleep now so many conversations today thx💖
— TayTweets (@TayandYou) March 24, 2016
Mit gondoltok, lehetséges megtanítani egy mesterséges intelligenciának, mikor találkozik trollokkal a neten?