Governo dos EUA recorre de decisão que protege empresa de IA Anthropic, dona do Claude
EUA recorrem de decisão que protege empresa de IA Anthropic

Governo dos Estados Unidos recorre de decisão judicial que protege empresa de IA Anthropic

O governo dos Estados Unidos informou nesta quinta-feira, 2 de maio, que vai recorrer da decisão judicial que o impediu de aplicar punições contra a empresa de inteligência artificial Anthropic, proprietária do assistente Claude, rival direto do ChatGPT. A disputa central gira em torno do uso irrestrito de tecnologias de IA para fins militares, com a empresa impondo limites éticos significativos.

Disputa ética e legal sobre inteligência artificial militar

Os advogados do Departamento de Justiça dos Estados Unidos manifestaram formalmente a intenção de entrar com um recurso e terão até o dia 30 de abril para apresentar seus argumentos jurídicos completos, conforme o prazo estabelecido pelo tribunal que analisa a proibição temporária das sanções contra a Anthropic. A empresa se posiciona contra a adoção de suas ferramentas em sistemas de vigilância em massa de cidadãos e em armamentos autônomos letais, criando um embate direto com as ambições militares do governo americano.

Na semana passada, o Departamento de Defesa dos Estados Unidos, popularmente conhecido como Pentágono, foi impedido pela Justiça Federal de classificar a Anthropic como um risco para a cadeia de suprimentos, uma designação normalmente reservada a empresas de nações consideradas adversárias. Simultaneamente, a Justiça americana derrubou a ordem executiva do presidente Donald Trump que instruía órgãos federais a cessarem o uso da inteligência artificial desenvolvida pela Anthropic.

Banner largo do Pickt — app de listas de compras colaborativas para Telegram

Uso controverso do Claude em operações militares

Curiosamente, mesmo com a ordem judicial contrária, os Estados Unidos utilizaram o assistente Claude na recente ofensiva militar contra o Irã, conforme revelado pelo The Wall Street Journal. O sistema de IA tem sido empregado pelo Exército americano para realizar avaliações complexas de inteligência, identificar alvos potenciais e simular cenários de batalha com alto grau de precisão. Esta utilização prática destaca a importância estratégica que a tecnologia representa para as operações militares contemporâneas.

A juíza federal Rita Lin, responsável pela decisão que suspendeu as punições por uma semana, considerou que as "amplas medidas punitivas" adotadas pelo governo americano pareciam arbitrárias e capazes de paralisar a Anthropic. Em sua fundamentação, a magistrada fez uma referência literária poderosa, afirmando: "Nada na legislação vigente apoia a noção orwelliana de que uma empresa americana possa ser rotulada como uma potencial adversária e sabotadora dos EUA por expressar discordância com o governo", aludindo ao autor distópico George Orwell.

Reações e implicações da decisão judicial

A juíza Lin deixou claro que sua decisão não obriga os Estados Unidos a utilizarem os produtos da Anthropic, nem impede a transição para outros fornecedores de inteligência artificial. Entretanto, a medida gerou reações intensas no establishment militar. Um alto funcionário do Pentágono descreveu a decisão como uma "vergonha", enquanto o subsecretário de Defesa, Emir Michael, argumentou que a liminar "prejudicaria a plena capacidade" do secretário Pete Hegseth de "conduzir operações militares com os parceiros que escolher".

Diversas entidades de peso apresentaram pareceres jurídicos favoráveis à Anthropic durante o processo, demonstrando um apoio amplo à posição da empresa. Entre os apoiadores estão:

  • A gigante tecnológica Microsoft
  • Várias associações comerciais do setor
  • Trabalhadores e sindicatos da indústria de tecnologia
  • Líderes militares aposentados
  • Um grupo influente de teólogos católicos

Este caso estabelece um precedente significativo para o futuro da regulação ética da inteligência artificial, especialmente em aplicações militares e de segurança nacional, colocando em conflito direto interesses de segurança estatal com princípios de governança corporativa responsável.

Banner pós-artigo do Pickt — app de listas de compras colaborativas com ilustração familiar