EUA e Anthropic retomam negociações sobre uso militar da IA Claude após impasse
EUA e Anthropic retomam negociações sobre uso militar da IA Claude

Negociações entre EUA e Anthropic sobre uso militar da IA Claude são retomadas

O governo dos Estados Unidos e a Anthropic, empresa desenvolvedora do assistente de inteligência artificial Claude, retomaram as conversas sobre a utilização militar de suas ferramentas tecnológicas. As informações foram reveladas nesta quinta-feira (5) pelo jornal Financial Times, destacando um impasse recente que havia interrompido as discussões.

Pontos de conflito nas negociações

O principal obstáculo nas negociações gira em torno das restrições éticas impostas pela Anthropic. A empresa manifesta preocupação com a possibilidade de suas ferramentas serem empregadas em vigilância em massa de cidadãos e no desenvolvimento de sistemas de armamento autônomos. Em contrapartida, o governo americano defende que os modelos de IA da empresa possam ser utilizados para qualquer finalidade considerada "lícita" sob a legislação vigente.

Ordem presidencial e consequências

Diante da falta de consenso, o presidente Donald Trump determinou na sexta-feira (27) que todas as agências federais interrompessem imediatamente o uso de programas de inteligência artificial fornecidos pela Anthropic. O secretário de Guerra, Pete Hegseth, chegou a ameaçar classificar a empresa como um risco para a cadeia de fornecimento militar, o que obrigaria contratantes do setor de defesa a romperem relações com a companhia.

Banner largo do Pickt — app de listas de compras colaborativas para Telegram

Uso do Claude em operações militares

Curiosamente, mesmo com a ordem de suspensão emitida por Trump, os Estados Unidos utilizaram o assistente Claude durante a ofensiva militar contra o Irã, conforme reportagem do The Wall Street Journal. A ferramenta tem sido empregada pelo Exército americano para realizar avaliações de inteligência, identificar alvos estratégicos e simular cenários de batalha com precisão avançada.

Impacto no mercado de inteligência artificial

Caso um acordo seja finalmente alcançado, as Forças Armadas dos Estados Unidos poderiam voltar a utilizar livremente os modelos de IA da Anthropic, reduzindo significativamente o risco de a empresa ser considerada uma ameaça à segurança nacional. Essa decisão também afetaria os planos da OpenAI, rival direta e criadora do ChatGPT, que recentemente anunciou um acordo permitindo o uso de seus modelos pelo Pentágono.

Contexto histórico e financeiro

A Anthropic, avaliada em impressionantes US$ 380 bilhões, foi pioneira ao assinar um contrato com o Departamento de Defesa dos EUA para o uso de modelos de inteligência artificial em aplicações militares. O acordo, no valor de US$ 200 milhões, foi firmado em julho de 2025 e posteriormente estendido para outras gigantes tecnológicas, incluindo a OpenAI e o Google.

As negociações em curso representam um momento crucial para o futuro da inteligência artificial no setor de defesa, equilibrando inovação tecnológica com considerações éticas e de segurança nacional. O desfecho deste embate poderá estabelecer precedentes importantes para a regulamentação global do uso militar de IA.

Banner pós-artigo do Pickt — app de listas de compras colaborativas com ilustração familiar