Microsoftov pokušaj da razgovara sa milenijalcima pomoću vještačke inteligencije (AI) je prvi put neslavno prošao, a povratak bota na Twitter nije bio ništa uspješniji.
Kada se bot Taj pojavio prvi put, izazvao je brojne kontroverze, jer je za manje od 24 časa počeo sa izlivima rasizma, veličao Hitlera, poricao Holokaust i pozivao na linč feministkinja.
U utorak veče se činilo da će eksperiment bolje proći, jer su Microsoftovi inžinjeri prošli prethodne tvitove i uklonili one uvredljive, ali i postavili algoritam koji je trebalo da bolje predvidi maliciozne namjere korisnika koje bi "natjerale" Taj da krši osnovne principe i vrijednosti, jer je bot programiran tako da svoje tvitove sklapa na osnovu naučenog u prethodnim razgovorima.
Međutim, u jednom momentu Taj je počela da tvituje o konzumiranju droge i to ispred policije.
žMicrosoft's sexist racist Twitter bot @TayandYou is BACK in fine form pic.twitter.com/nbc69x3LEd
— Josh Butler (@JoshButler) March 30, 2016
Ubrzo nakon toga, Taj je počeo da spamuje svojih 200 hiljada i kusur pratilaca, nečim što bi u slučaju ljudi bilo opisano kao blaži nervni slom.
I guess they turned @TayandYou back on... it's having some kind of meltdown. pic.twitter.com/9jerKrdjft
— Michael Oman-Reagan (@OmanReagan) March 30, 2016
"Prebrz si, molim te odmori", uporno je tvitovao bot. Microsoft je ubrzo pretvorio profil u privatni, kako niko ne bi mogao da vidi tvitove.
Taj je zamišljena kao tinejdžerka i dizajnirana je da razgovara sa milenijalcima sa ciljem da postepeno poboljšava komunikacione vještine, ali se pokazalo da je bot jako ranjiv na sugestivne tvitove.
Bonus video: