Da circa una settimana, la controversia fra Anthropic e il Department of War americano è alla ribalta dell’informazione internazionale. Molto è stato scritto sull’argomento, ma l’azione legale annunciata e poi effettivamente promossa dall’azienda contiene gli elementi concreti per comprendere la natura della controversia e, in generale, quali sono le criticità attuali nell’uso dell’AI (non solo) nel settore militare.
Le dichiarazioni di Anthropic
Riassumiamo i fatti così come dichiarati da Anthropic nel proprio “atto di accusa” contro l’amministrazione Trump.
Fatto numero 1: Anthropic ha sviluppato delle AI sulla base delle indicazioni delle strutture incaricate della sicurezza nazionale (Anthropic has also developed specialized “Claude Gov” models tailored specifically for the national security context. These models have been built based on direct feedback from national security agencies to address real-world requirements, like improved handling of classified information, enhanced proficiency in critical languages, and sophisticated analysis of cybersecurity data. Claude Gov models undergo rigorous safety testing consistent with Anthropic’s commitment to responsible AI.)
Fatto numero 2: i modelli Claude Gov sono costruiti con minori restrizioni (ma quanto minori?) di quella a disposizione dei clienti “normali”. Dunque, per esempio, potrebbero essere stati eliminati i blocchi che impediscono all'AI di generare piani d'attacco, analisi di vulnerabilità critiche o supporto tattico letale, normalmente inibiti nelle versioni commerciali (si legge nel ricorso: To make Claude more useful for the military and intelligence components of the federal government, Anthropic does not impose the same restrictions on the military’s use of Claude as it does on civilian customers.)












