La scelta di Anthropic di resistere alle pressioni del Pentagono merita un’attenzione diversa da quella che le è stata riservata finora. Non è una questione di integrità morale: il punto centrale non sono i meriti o la coscienza civica di Amodei. L'attenzione dedicata a questo aspetto è una distrazione da un tema ben più rilevante: la salvaguardia dello stato di diritto.
Sappiamo che il governo americano intende sperimentare e usare l'intelligenza artificiale per la sorveglianza di massa e per il targeting: le linee rosse che Anthropic non ha voluto superare. Ma sappiamo anche che l'IA di Anthropic è già utilizzata per identificare immigrati, per operazioni in Venezuela, molto probabilmente per attacchi cyber, per disegnare strategie e tattiche belliche. L'uso dell'IA nella difesa avviene senza che esista una regolamentazione che ne determini gli usi legittimi e ne ponga i limiti. Il rischio è che diventi lo strumento attraverso cui lo Stato estende il proprio potere sistematicamente oltre ogni argine, dentro e fuori i propri confini. È questo il punto che il caso Anthropic indica. È su questo che dovremmo concentrarci.
L'IA di Anthropic dietro i raid in Iran: il paradosso del Pentagono dopo il bando di Trump












