La Microsoft si dice “profondamente dispiaciuta” per i tweet offensivi del suo nuovo programma di intelligenza artificiale
Lo scorso venerdì, la Microsoft si è scusata per i commenti a contenuto razzista e sessista recentemente postati su Twitter da un suo “chatbot”, ossia un software progettato per simulare una conversazione intelligente. La Microsoft ha realizzato il programma, chiamato Tay, allo scopo di studiare il modo in cui i software di intelligenza artificiale interagiscono con gli esseri umani. Purtroppo Tay, poco dopo il suo esordio ufficiale, avvenuto mercoledì scorso, ha iniziato a twittare una serie di messaggi oltraggiosi, tra i quali spiccavano un tweet a favore del genocidio e un commento nel quale il software proclamava che le femministe dovrebbero “bruciare all’inferno”. La Microsoft ha disattivato il programma nella giornata di giovedì.
Gli ingegneri della Microsoft hanno descritto i messaggi come il risultato di un “attacco coordinato” contro il programma. Tay è stato progettato per “imparare” mediante un processo di interazione con gli esseri umani, e alcuni utenti di Twitter gli hanno insegnato a scrivere commenti offensivi. Secondo quanto annunciato dalla Microsoft, Tay sarà nuovamente online quando avrà imparato a impedire il ripetersi di situazioni simili.
Tay, in realtà, non è