Screen width of at least 320px is required. Screen width can be adjusted by widening your browser window or adjusting your mobile device settings. If you are on a mobile device, you can also try orienting to landscape.

19 March 2026

“Questa non è la nostra guerra; non l’abbiamo iniziata noi

19 March 2026

La Virginia vieta alle scuole di diffondere informazioni false sui disordini del 6 gennaio

12 March 2026

Gli attacchi statunitensi e israeliani contro l’Iran scuotono i mercati energetici globali

12 March 2026

La Francia annuncia una nuova dottrina nucleare e un aumento delle scorte nucleari

5 March 2026

Anthropic e il Pentagono in disaccordo sull’uso dell’IA nella difesa e nella sicurezza

5 March 2026

Uno studio rivela come gli algoritmi di X influenzano le opinioni politiche degli utenti

26 February 2026

La Francia nega all'ambasciatore statunitense l'accesso ai ministri del governo

26 February 2026

Il tradimento degli Stati Uniti nei confronti dell'Ucraina è in linea con il nuovo ordine politico mondiale

19 February 2026

L’Europa riceve segnali contrastanti dagli Stati Uniti sulle relazioni transatlantiche

Speed 1.0x
/
aa
AA

Anthropic e il Pentagono in disaccordo sull’uso dell’IA nella difesa e nella sicurezza

5 March 2026
Anthropic e il Pentagono in disaccordo sull’uso dell’IA nella difesa e nella sicurezza
Joshua Sukoff / Shutterstock

La scorsa settimana, uno stallo tra il Pentagono e una delle principali aziende di intelligenza artificiale, Anthropic, si è trasformato in uno scontro ad alta tensione sull’impiego dell’IA nelle operazioni militari. La disputa verteva sulla volontà dell’esercito statunitense di utilizzare il sistema di IA Claude di Anthropic per armi autonome e sistemi di sorveglianza, inclusi scenari estremi come l’intercettazione di un missile nucleare.

I vertici del Pentagono hanno sostenuto che tali capacità sono cruciali per la sicurezza nazionale. La posizione di Anthropic è che, anche con la presenza obbligatoria di un essere umano nel processo decisionale, gli attuali sistemi di IA sono troppo inaffidabili per decisioni di vita o di morte e per la sorveglianza domestica di massa. Di conseguenza, l’azienda si è rifiutata di oltrepassare determinate linee rosse etiche.

Ma venerdì scorso, OpenAI, la

Continue the conversation

Go further and experience the full content — and understand how Italian is actually used.

Continue

Already have access? Log in.