Segui tutte le inchieste del Fatto Quotidiano
10 MARZO 2026
Ultimo aggiornamento: 10:35
La battaglia per l’uso dell’intelligenza artificiale nell’esercito si infuoca. Dopo lo strappo sul contratto, Anthropic fa causa al Pentagono per averla etichettata come “rischio per la catena di approvvigionamento” americana, di fatto limitandone l’uso nelle agenzie federali. Nell’azione legale la startup guidata dall’italoamericano Dario Amodei ritiene illegale la designazione del Pentagono, definendo la decisione del Dipartimento della Difesa come una violazione della libertà di parola e una punizione per motivi ideologici. “Queste azioni sono senza precedenti e illegali. La costituzione non consente al governo di esercitare il suo enorme potere per punire un’azienda per la libertà di parola“, ha detto Anthropic spiegando che l’azione legale “è un passo necessario per proteggere le nostre attività, i nostri clienti e i nostri partner. Continueremo a perseguire ogni strada per una soluzione, anche il dialogo con il governo”.
La startup ha infatti precisato che l’azione legale – le cause avanzate sono state due in due diversi stati – non preclude una possibile riapertura delle trattative e il raggiungimento di un eventuale patteggiamento. La battaglia legale apre un nuovo capitolo nel contenzioso fra Anthropic e il Pentagono. Il mese scorso si erano scontrati durante le trattative per un contratto da 200 milioni di dollari per la fornitura al Dipartimento della Difesa della tecnologia IA per i suoi sistemi classificati. Claude, il modello di Anthropic, è ritenuto quello migliore e più efficiente per il Pentagono che, secondo indiscrezioni, lo sta usando anche nella guerra in Iran. Nel corso delle trattative il segretario della Difesa Pete Hegseth ha chiesto la possibilità di usare senza alcuna restrizione e limite la tecnologia di Anthropic, scontrandosi però con l’opposizione in nome dei “valori democratici” della società di Amodei.











