Si accende negli Stati Uniti lo scontro sull’utilizzo dell’intelligenza artificiale in ambito militare. La società di IA Anthropic ha avviato un’azione legale contro il United States Department of Defense, accusandolo di averla penalizzata dopo averla classificata come un “rischio per la catena di approvvigionamento” statunitense, una definizione che di fatto limita l’impiego delle sue tecnologie nelle agenzie federali.
La startup guidata dall’italoamericano Dario Amodei sostiene che la decisione del Pentagono sia illegittima. Nella causa presentata in tribunale l’azienda afferma che la designazione rappresenterebbe una violazione della libertà di espressione e una forma di ritorsione per motivi ideologici. Secondo la società, il governo non potrebbe utilizzare il proprio potere per penalizzare un’impresa a causa delle sue posizioni pubbliche.
Anthropic ha spiegato che il ricorso legale – avviato con due azioni distinte in altrettanti Stati – è stato intrapreso per tutelare l’attività dell’azienda, i suoi clienti e i partner commerciali. Allo stesso tempo la società non esclude un possibile riavvicinamento con le autorità federali e lascia aperta la porta a un eventuale accordo, sottolineando di essere disponibile anche a un confronto diretto con il governo.
La vicenda si inserisce in una disputa già aperta tra la startup e il Pentagono. Il mese scorso le due parti si erano scontrate durante le trattative per un contratto da circa 200 milioni di dollari destinato alla fornitura di tecnologie di intelligenza artificiale per sistemi classificati del Dipartimento della Difesa. Il modello Claude, sviluppato da Anthropic, è infatti considerato tra i più avanzati ed efficienti per applicazioni militari e, secondo alcune indiscrezioni, sarebbe stato impiegato anche nel conflitto in Iran.
Nel corso delle negoziazioni il segretario alla Difesa Pete Hegseth avrebbe chiesto la possibilità di utilizzare la tecnologia senza restrizioni. Una richiesta respinta dall’azienda, che ha richiamato i propri principi e i cosiddetti “valori democratici” alla base dello sviluppo delle sue soluzioni.
Anthropic ha infatti posto alcune condizioni precise: il divieto di utilizzare i suoi sistemi per la sorveglianza di massa dei cittadini statunitensi e per la creazione di armi autonome, capaci cioè di colpire senza l’intervento diretto di un operatore umano. Dopo settimane di confronto il negoziato si è interrotto. Il Pentagono ha quindi classificato la società come un rischio per le forniture americane e ha scelto di firmare un accordo con la concorrente OpenAI, guidata da Sam Altman, alimentando ulteriormente la rivalità tra i due protagonisti della corsa globale all’intelligenza artificiale.
La posizione assunta da Anthropic ha ricevuto il sostegno di molti dipendenti delle grandi aziende tecnologiche della Silicon Valley, che da tempo chiedono ai vertici del settore di assumere una posizione più critica nei confronti dell’amministrazione Donald Trump. Anche l’opinione pubblica sembra aver reagito positivamente: l’app Claude è tra le più scaricate negli Stati Uniti, mentre si registra un calo di utenti per ChatGPT.
L’accordo con il Pentagono sta creando tensioni anche all’interno di OpenAI. Una delle ricercatrici più importanti dell’azienda, Caitlin Kalinowski, ha deciso di lasciare il gruppo dopo l’intesa con il Dipartimento della Difesa. L’ex responsabile della divisione robotica ha spiegato che la scelta non è stata semplice, riconoscendo il ruolo dell’intelligenza artificiale nella sicurezza nazionale ma sottolineando come temi delicati – dalla sorveglianza dei cittadini allo sviluppo di sistemi d’arma autonomi – avrebbero meritato una riflessione più approfondita.
Parole che alimentano il dibattito sempre più acceso sull’intelligenza artificiale e sui limiti del suo utilizzo, soprattutto in ambito militare, alla luce dell’impatto potenziale che queste tecnologie potrebbero avere sulla società.


















