Segundo relatos, as forças armadas dos EUA utilizaram a empresa Anthropic durante um grande ataque aéreo contra o Irã, poucas horas depois de o presidente Donald Trump ter ordenado que as agências federais suspendessem o uso dos sistemas da empresa.
Comandos militares, incluindo o Comando Central dos EUA (CENTCOM) no Oriente Médio, utilizaram o modelo de IA Claude da Anthropic para apoio operacional, de acordo com pessoas familiarizadas com o assunto citadas pelo The Wall Street Journal. A ferramenta teria auxiliado na análise de inteligência, na identificação de alvos potenciais e na execução de simulações de campo de batalha.
O incidente demonstra o quão profundamente os sistemas avançados de IA se tornaram integrados às operações de defesa. Mesmo quando o governo tomou medidas para romper os laços com a empresa, Claude permaneceu integrado aos fluxos de trabalho militares.
Na sexta-feira, o governo Trump instruiu as agências a interromperem o trabalho com a empresa e orientou o Departamento de Defesa a tratá-la como um potencial risco à segurança. A ordem veio após o fracasso das negociações contratuais, com a Anthropic se recusando a conceder uso militar irrestrito de sua IA para qualquer cenário legal solicitado por autoridades de defesa.
IA Claude da Anthropic é usada para operações confidenciais
A Anthropic já havia garantido um contrato plurianual com o Pentágono, no valor de até US$ 200 milhões, em parceria com diversos grandes laboratórios de IA. Por meio de parcerias envolvendo a Palantir e a Amazon Web Services, o sistema Claude foi aprovado para uso em fluxos de trabalho operacionais e de inteligência classificados. O sistema também teria participado de operações anteriores, incluindo uma missão em janeiro na Venezuela que resultou na captura do presidente Nicolás Maduro.
As tensões aumentaram depois que o Secretário de Defesa Pete Hegseth exigiu que a empresa permitisse o uso militar irrestrito de seus modelos. O CEO da Anthropic, Dario Amodei, rejeitou o pedido, descrevendo certas aplicações como limites éticos que a empresa não ultrapassaria, mesmo que isso significasse perder contratos governamentais.
Em resposta, o Pentágono começou a selecionar fornecedores substitutos, chegando a um acordo com a OpenAI para implantar seus modelos de IA em redes militares classificadas.
CEO da Anthropic se opõe à proibição do Pentágono
Durante uma entrevista no sábado, o CEO da Anthropic, Dario Amodei, afirmou que a empresa se opõe ao uso de seus modelos de IA para vigilância doméstica em massa e armas totalmente autônomas, em resposta a uma diretiva do governo dos EUA que classificou a empresa como um “risco para a cadeia de suprimentos” da área de defesa e proibiu contratados de usar seus produtos.
Ele argumentou que certas aplicações ultrapassam fronteiras fundamentais, enfatizando que as decisões militares devem permanecer sob controle humano, em vez de serem delegadas inteiramente às máquinas.