Ametà febbraio Anthropic ha rifiutato di fornire al Pentagono pieno accesso ai propri modelli di intelligenza artificiale.
Secondo il Ceo di Anthropic Dario Amodei, togliere ogni salvaguardia etica renderebbe gli Stati Uniti simili ai Paesi contro i quali combatte o che demonizza.
Da qui la decisione del dipartimento della Guerra americano di interrompere la collaborazione con Anthropic, il cui valore è di circa 200 milioni di dollari, e di affidarsi a OpenAI, l’azienda diretta da Sam Altman che sviluppa ChatGPT, simbolo per antonomasia delle IA generative.
Un tema che ha contribuito a fare nascere un boicottaggio che penalizza OpenAI e premia Anthropic. Infatti, dopo l’accordo con il Pentagono, OpenAI ha perso clienti, tant’è che le disinstallazioni di ChatGPT sono aumentate del 295% e Claude, il modello IA di Anthropic, è salito sulla vetta delle app più prelevate tanto da mandare in down app e sito per alcune ore. La questione è più complessa di come si può intendere a una prima lettura, perché in gioco non ci sono soltanto le attività belliche ma il potenziale uso delle IA per compromettere equilibri democratici fini e già traballanti. Per esempio, nonostante le frizioni con Anthropic, il Pentagono avrebbe usato i modelli dell’azienda per coordinare i primi attacchi contro l’Iran, lasciando inascoltato l’ordine imposto dalla Casa Bianca.












