Um tribunal federal de Washington manteve nessa quarta-feira (8) a proibição do uso da Anthropic no Pentágono em um revés para a empresa de inteligência artificial.
A decisão, consultada pela AFP, mantém em vigor uma medida governamental que exige que os subcontratados do Pentágono certifiquem-se que não utilizam tecnologias desenvolvidas pela Anthropic, criadora do chatbot Claude.
Essa ordem, que designou a empresa como "um risco para a cadeia de suprimentos" do Pentágono, foi emitida em 27 de fevereiro em resposta à recusa da empresa em permitir que sua IA seja utilizada para vigilância em massa de cidadãos norte-americanos e para o desenvolvimento de armas totalmente autônomas.
Os três juízes consideraram que os interesses pendiam a favor do governo. Embora a Anthropic "sofra um dano irreparável", esta medida é "principalmente financeira", indicaram.
Já para o governo, afeta a segurança das operações do Pentágono "no contexto de um conflito militar ativo".






