Negociações entre EUA e Anthropic sobre uso militar da IA Claude são retomadas
O governo dos Estados Unidos e a Anthropic, empresa desenvolvedora do assistente de inteligência artificial Claude, retomaram as conversas sobre a utilização militar de suas ferramentas tecnológicas. As informações foram reveladas nesta quinta-feira (5) pelo jornal Financial Times, destacando um impasse recente que havia interrompido as discussões.
Pontos de conflito nas negociações
O principal obstáculo nas negociações gira em torno das restrições éticas impostas pela Anthropic. A empresa manifesta preocupação com a possibilidade de suas ferramentas serem empregadas em vigilância em massa de cidadãos e no desenvolvimento de sistemas de armamento autônomos. Em contrapartida, o governo americano defende que os modelos de IA da empresa possam ser utilizados para qualquer finalidade considerada "lícita" sob a legislação vigente.
Ordem presidencial e consequências
Diante da falta de consenso, o presidente Donald Trump determinou na sexta-feira (27) que todas as agências federais interrompessem imediatamente o uso de programas de inteligência artificial fornecidos pela Anthropic. O secretário de Guerra, Pete Hegseth, chegou a ameaçar classificar a empresa como um risco para a cadeia de fornecimento militar, o que obrigaria contratantes do setor de defesa a romperem relações com a companhia.
Uso do Claude em operações militares
Curiosamente, mesmo com a ordem de suspensão emitida por Trump, os Estados Unidos utilizaram o assistente Claude durante a ofensiva militar contra o Irã, conforme reportagem do The Wall Street Journal. A ferramenta tem sido empregada pelo Exército americano para realizar avaliações de inteligência, identificar alvos estratégicos e simular cenários de batalha com precisão avançada.
Impacto no mercado de inteligência artificial
Caso um acordo seja finalmente alcançado, as Forças Armadas dos Estados Unidos poderiam voltar a utilizar livremente os modelos de IA da Anthropic, reduzindo significativamente o risco de a empresa ser considerada uma ameaça à segurança nacional. Essa decisão também afetaria os planos da OpenAI, rival direta e criadora do ChatGPT, que recentemente anunciou um acordo permitindo o uso de seus modelos pelo Pentágono.
Contexto histórico e financeiro
A Anthropic, avaliada em impressionantes US$ 380 bilhões, foi pioneira ao assinar um contrato com o Departamento de Defesa dos EUA para o uso de modelos de inteligência artificial em aplicações militares. O acordo, no valor de US$ 200 milhões, foi firmado em julho de 2025 e posteriormente estendido para outras gigantes tecnológicas, incluindo a OpenAI e o Google.
As negociações em curso representam um momento crucial para o futuro da inteligência artificial no setor de defesa, equilibrando inovação tecnológica com considerações éticas e de segurança nacional. O desfecho deste embate poderá estabelecer precedentes importantes para a regulamentação global do uso militar de IA.



