Inteligența artificială păcălită. Cum a devenit „rasist” un robot al Microsoft după câteva ore petrecute pe Twitter

Publicat: 25 03. 2016, 15:58
Actualizat: 08 01. 2020, 22:27

Bot-ul „Tay”, @Tayandyou pe Twitter, trebuia să învețe lucruri noi și să devină mai inteligent în urma interacțiunilor de pe rețeaua de microblogging. Lucrurile au luat, însă, o întorsătură dezastruoasă. După numai câteva ore, Tay a început să publice comentarii rasiste, teorii ale conspirației și să nege genocide, potrivit Go4it.

Unul dintre cele mai circulate mesaje publicate de Tay este: „Bush a făcut 9/11 și Hitler ar fi făcut o treabă mai bună decât maimuța pe care o avem acum. Donald Trump este singura speranță pe care o avem”.

Tay nu s-a oprit aici. A negat existența Holocaustului și a afirmat că urăște evreii și feministele.

După doar câteva ore, Microsoft a dezactivat bot-ul și a anunțat că îl va relansa după ce programatorii companiei vor îmbunătăți software-ul din spatele acestuia.