Anthropic, una delle principali aziende nel settore dell’intelligenza artificiale e creatrice del modello Claude, tra i primi a essere utilizzati nelle reti classificate dell’esercito americano, per scopi bellici, porterà in tribunale il Dipartimento della Guerra degli Stati Uniti.

La società guidata da Dario Amodei ha deciso di intraprendere un’azione legale in risposta alla decisione del Pentagono di classificare la sua intelligenza artificiale come un “rischio per la catena di approvvigionamento”, una designazione solitamente riservata ad aziende straniere legate ad avversari geopolitici.

Secondo Anthropic, il bando del governo Usa rappresenta una rappresaglia politica e una violazione dei diritti costituzionali: è la prima volta che uno strumento di tale portata viene utilizzato contro un’azienda tecnologica statunitense.

Lo scontro su sorveglianza di massa e armi autonome

La battaglia legale scaturisce da una disputa contrattuale riguardo ai limiti d'uso dell’intelligenza artificiale in guerra.