Um tribunal federal de Washington manteve nessa quarta-feira (8) a proibição do uso da Anthropic no Pentágono em um revés para a empresa de inteligência artificial.

A decisão, consultada pela AFP, mantém em vigor uma medida governamental que exige que os subcontratados do Pentágono certifiquem-se que não utilizam tecnologias desenvolvidas pela Anthropic, criadora do chatbot Claude.

Essa ordem, que designou a empresa como "um risco para a cadeia de suprimentos" do Pentágono, foi emitida em 27 de fevereiro em resposta à recusa da empresa em permitir que sua IA seja utilizada para vigilância em massa de cidadãos norte-americanos e para o desenvolvimento de armas totalmente autônomas.

Os três juízes consideraram que os interesses pendiam a favor do governo. Embora a Anthropic "sofra um dano irreparável", esta medida é "principalmente financeira", indicaram.

Já para o governo, afeta a segurança das operações do Pentágono "no contexto de um conflito militar ativo".