Anthropic sfida il Pentagono, Dario Amodei: «Non potete usare l’AI Claude per le armi autonome e per controllare i cittadini»
Scontro sull’uso dell’intelligenza artificiale in ambito militare. Potrebbe saltare un contratto da 200 milioni di euro e l’azienda potrebbe essere inserita in una black list
Il Dipartimento della Difesa degli Stati Uniti ha fissato alle 17:01 (ora della costa Est) di oggi, venerdì 27 febbraio, il termine entro cui Anthropic dovrà accettare nuove condizioni sull’utilizzo del proprio sistema di intelligenza artificiale Claude. In caso contrario, il Pentagono ha annunciato che revocherà il contratto da 200 milioni di dollari e valuterà di classificare l’azienda come “rischio per la catena di approvvigionamento”, una qualifica solitamente attribuita a società considerate vicine a potenze straniere ostili.
Al centro della disputa ci sono i limiti previsti dalla policy di utilizzo inserita nel contratto. Anthropic consente l’impiego di Claude sulle reti classificate del Pentagono, ma vieta espressamente l’uso del sistema per armi autonome e per programmi di sorveglianza di massa dei cittadini statunitensi. Il Dipartimento della Difesa chiede invece di poter utilizzare la tecnologia per “tutti gli scopi leciti”.
L’amministratore delegato di Anthropic, Dario Amodei (imprenditore di origini italiane, il padre è nato in Toscana), ha dichiarato che l’azienda non intende modificare la propria posizione, sottolineando che le pressioni ricevute non cambiano la valutazione etica della società. Dal canto suo, il Pentagono sostiene di non avere interesse a impiegare l’IA per le finalità contestate, ma rivendica la necessità di non essere vincolato da restrizioni aziendali nelle decisioni operative.
Lo scontro è culminato martedì in un incontro tra il segretario alla Difesa Pete Hegseth e Amodei. Secondo fonti citate dai media statunitensi, oltre alla possibile rescissione del contratto, il Pentagono avrebbe prospettato la designazione di Anthropic come soggetto a rischio, con ripercussioni potenzialmente rilevanti sui rapporti con altre imprese che collaborano con il governo.
Claude è stato il primo modello di intelligenza artificiale autorizzato a operare sulle reti classificate del Dipartimento della Difesa. Altre aziende del settore, come OpenAI, hanno finora stipulato accordi limitati a reti non classificate. Un’eventuale interruzione del contratto costringerebbe il Pentagono a sostituire sistemi già integrati, mentre per Anthropic la perdita economica non sarebbe considerata decisiva rispetto alla propria valutazione di mercato, ma la qualifica di “supply chain risk” potrebbe incidere sui rapporti con clienti che lavorano con il governo federale.
Il Dipartimento della Difesa ha inoltre evocato la possibilità di ricorrere al Defense Production Act del 1950, che attribuisce al presidente ampi poteri in situazioni di emergenza per indirizzare l’industria nazionale. Non è chiaro, tuttavia, come tale strumento potrebbe conciliarsi con l’eventuale classificazione dell’azienda come soggetto a rischio.
Resta incerto cosa accadrà allo scadere dell’ultimatum: non è noto se il sistema Claude verrebbe immediatamente rimosso dalle reti militari né quale soluzione alternativa potrebbe essere adottata. In caso di conferma della minaccia, si tratterebbe di un’escalation senza precedenti nei confronti di uno dei modelli di intelligenza artificiale più avanzati attualmente disponibili.
