Screen width of at least 320px is required. Screen width can be adjusted by widening your browser window or adjusting your mobile device settings. If you are on a mobile device, you can also try orienting to landscape.

28 April 2016

Un astronauta britannico corre una maratona nello spazio

21 April 2016

L’OMS approva il primo vaccino al mondo contro la febbre dengue

14 April 2016

Un gruppo di ricercatori studia le persone resistenti alle malattie

7 April 2016

Un nuovo tipo di pelle coltivata in laboratorio offre una speranza alle vittime di ustioni

31 March 2016

La Microsoft si dice “profondamente dispiaciuta” per i tweet offensivi del suo nuovo programma di intelligenza artificiale

24 March 2016

Un antico crocifisso potrebbe cambiare la storia del cristianesimo in Danimarca

17 March 2016

Un team medico sviluppa una terapia capace di curare alcuni tipi di cancro al seno

10 March 2016

Muore l’inventore della posta elettronica

3 March 2016

Uno studio indica che l’uomo di Neanderthal accendeva il fuoco utilizzando delle sostanze chimiche

Speed 1.0x
/
aa
AA

La Microsoft si dice “profondamente dispiaciuta” per i tweet offensivi del suo nuovo programma di intelligenza artificiale

31 March 2016

Lo scorso venerdì, la Microsoft si è scusata per i commenti a contenuto razzista e sessista recentemente postati su Twitter da un suo “chatbot”, ossia un software progettato per simulare una conversazione intelligente. La Microsoft ha realizzato il programma, chiamato Tay, allo scopo di studiare il modo in cui i software di intelligenza artificiale interagiscono con gli esseri umani. Purtroppo Tay, poco dopo il suo esordio ufficiale, avvenuto mercoledì scorso, ha iniziato a twittare una serie di messaggi oltraggiosi, tra i quali spiccavano un tweet a favore del genocidio e un commento nel qual

End of free content.

To access this material, please LOG IN.

If you don't have a subscription, please click HERE to sign up for this program.