Anthropic e il Pentagono in disaccordo sull’uso dell’IA nella difesa e nella sicurezza
La scorsa settimana, uno stallo tra il Pentagono e una delle principali aziende di intelligenza artificiale, Anthropic, si è trasformato in uno scontro ad alta tensione sull’impiego dell’IA nelle operazioni militari. La disputa verteva sulla volontà dell’esercito statunitense di utilizzare il sistema di IA Claude di Anthropic per armi autonome e sistemi di sorveglianza, inclusi scenari estremi come l’intercettazione di un missile nucleare.
I vertici del Pentagono hanno sostenuto che tali capacità sono cruciali per la sicurezza nazionale. La posizione di Anthropic è che, anche con la presenza obbligatoria di un essere umano nel processo decisionale, gli attuali sistemi di IA sono troppo inaffidabili per decisioni di vita o di morte e per la sorveglianza domestica di massa. Di conseguenza, l’azienda si è rifiutata di oltrepassare determinate linee rosse etiche.
Ma venerdì scorso, OpenAI, la società che sviluppa ChatGPT, ha raggiunto un accordo con il Pentagono per fornire le proprie tecnologie di intelligenza artificiale a sistemi classificati, poche ore dopo che il Presidente Trump aveva ordinato alle agenzie federali di smettere di utilizzare l’IA sviluppata da Anthropic. In base all