Irapporti deteriorati tra Anthropic e il Pentagono, così come la nuova collaborazione tra quest’ultimo e OpenAI stanno sollevando contenziosi in America e critiche ovunque nel mondo.
Al centro c’è una controversia divampata a metà febbraio, quando Anthropic ha rifiutato la richiesta del Pentagono di utilizzare il suo sistema di intelligenza artificiale Claude "per tutti gli scopi leciti", insistendo su due limiti contrattuali invalicabili, ovvero il veto assoluto alla sorveglianza di massa domestica e nessuna arma completamente autonoma.
L’amministrazione Trump ha ordinato alle agenzie federali di non usare i prodotti Anthropic e ha bollato l’azienda di essere un rischio per la catena di approvvigionamento, etichetta di norma applicata alle organizzazioni legate a Paesi nemici degli Stati Uniti. Da qui la decisione di Anthropic di adire le vie legali contro il dipartimento della Guerra americano.
Parallelamente, la decisione di OpenAI di fornire supporto al dipartimento della Guerra americano ha generato una disaffezione degli utenti nei confronti di ChatGpt, l’interfaccia che consente di usare i modelli IA sviluppati dalla stessa OpenAI e ha acceso un dibattito sugli equilibri tra interessi ed etica.











