
O prazo expirou e a divisão entre o laboratório de IA focado em segurança do Vale do Silício e os militares dos EUA transformou-se em um abismo. Na manhã de sábado, a Anthropic — criadora dos modelos de IA Claude — rejeitou oficialmente um ultimato do Secretário de Defesa Pete Hegseth para conceder aos militares acesso irrestrito à sua tecnologia. Em resposta, o Pentágono agiu rapidamente para designar a empresa como um "risco na cadeia de suprimentos" (supply chain risk), rompendo efetivamente um contrato de US$ 200 milhões e preparando o terreno para um confronto jurídico e ético sem precedentes sobre a militarização da inteligência artificial.
Este confronto marca um ponto de inflexão histórico para a indústria de IA. Pela primeira vez, um grande desenvolvedor de IA arriscou sua receita governamental e posição comercial para manter "linhas vermelhas" éticas em relação a armas autônomas (autonomous weapons) e vigilância em massa, desafiando diretamente a pressão do governo Trump para remover o que ele chama de restrições "woke" na tecnologia militar.
A crise atingiu o ápice na sexta-feira, 27 de fevereiro, o prazo definido pelo Secretário Hegseth para a Anthropic capitular. No início da semana, Hegseth convocou o CEO da Anthropic, Dario Amodei, ao Pentágono, entregando uma mensagem austera: remova as "proteções" (guardrails) que impedem o Claude de ser usado para cadeias de abate autônomas e vigilância doméstica, ou enfrente todo o peso do governo federal.
De acordo com fontes próximas às negociações, o Pentágono exigiu "acesso irrestrito" às capacidades do Claude, argumentando que em uma era de competição entre grandes potências, os militares dos EUA não podem ser prejudicados por políticas éticas corporativas. Hegseth, que prometeu expurgar a "cultura woke" das forças armadas, visou especificamente a estrutura de "IA Constitucional" (Constitutional AI) da Anthropic — um sistema de segurança projetado para evitar que o modelo gere conteúdo prejudicial, ilegal ou antiético — como um fardo para a segurança nacional.
Em um comunicado divulgado pouco antes do prazo final, Amodei manteve-se firme. "Não podemos, em sã consciência, aceder a essas exigências", escreveu o CEO. Ele reiterou que, embora a Anthropic apoie aplicações militares defensivas legítimas, ela estabelece uma linha rígida em dois casos de uso específicos: vigilância doméstica em massa de cidadãos dos EUA e sistemas de segmentação totalmente autônomos onde a IA toma decisões letais sem intervenção humana.
As consequências dessa recusa começaram a se materializar no final da noite de sexta-feira. O Departamento de Defesa (DoD) iniciou processos para classificar a Anthropic como um "risco na cadeia de suprimentos" (supply chain risk). Esta designação é muito mais prejudicial do que um simples cancelamento de contrato; funciona efetivamente como uma lista negra.
Implicações da Designação de "Risco na Cadeia de Suprimentos":
Talvez o mais alarmante para a indústria tecnológica tenha sido a ameaça de Hegseth de invocar a Lei de Produção de Defesa (Defense Production Act - DPA). Originalmente promulgada durante a Guerra da Coreia, a DPA concede ao presidente poderes amplos para forçar empresas privadas a priorizar contratos governamentais e controlar a distribuição de materiais críticos. Especialistas jurídicos alertam que usar a DPA para confiscar propriedade intelectual — especificamente os pesos do modelo de uma IA proprietária — ou para forçar uma empresa a alterar seu código contra seus protocolos de segurança seria uma expansão sem precedentes do poder executivo.
A fricção entre os dois campos foi palpável durante a reunião de terça-feira que precipitou o prazo. Fontes descreveram o encontro como "cordial, mas frio", com Hegseth acusando a Anthropic de priorizar a ética abstrata do Vale do Silício em detrimento de vidas americanas.
Hegseth teria justaposto a recalcitrância da Anthropic com a cooperação de outras empresas de IA. Ele mencionou explicitamente a xAI, empresa de inteligência artificial de Elon Musk, que já concordou com uma cláusula de "uso legal" que não impõe restrições técnicas específicas às aplicações militares. O argumento do Secretário de Defesa enquadra as medidas de segurança de IA (AI safety) não como prudência, mas como "restrições ideológicas" que enfraquecem o combatente dos EUA.
Para Amodei, a recusa é consistente com a missão fundadora da Anthropic. A empresa foi criada por ex-pesquisadores da OpenAI especificamente para evitar os atalhos de segurança que eles acreditavam estar assolando a indústria. Capitular à demanda do Pentágono por capacidade de segmentação autônoma teria sido uma traição à estrutura central de "Fundo de Benefício de Longo Prazo" (Long-Term Benefit Trust) da empresa.
A disputa centra-se em duas visões fundamentalmente diferentes sobre a utilidade e o risco da IA. A tabela abaixo descreve os pontos específicos de discórdia que levaram à rescisão do contrato.
Tabela 1: As Demandas do Pentágono vs. As Fronteiras Éticas da Anthropic
| Ponto de Contenção | Demanda do Pentágono (Doutrina Hegseth) | Postura da Anthropic (IA Constitucional) |
|---|---|---|
| Armas Autônomas | Integração total da IA em "cadeias de abate" para acelerar a letalidade e a velocidade de tomada de decisão. | Proibição estrita de a IA tomar decisões de segmentação letal sem controle humano significativo. |
| Vigilância Doméstica | Uso de IA para analisar dados em massa para segurança interna e detecção de ameaças. | Recusa em permitir que modelos sejam usados para monitoramento em massa de cidadãos dos EUA ou rastreamento de dissidentes. |
| Protocolos de Segurança | Remoção de filtros "ideológicos" (rotulados como "IA woke") que limitam a utilidade militar. | Manutenção de proteções de segurança para evitar uso indevido, viés e violação de direitos humanos. |
| Controle Contratual | Licença irrestrita para usar o modelo para "todos os fins legais" definidos pelo poder executivo. | Termos de serviço que proíbem explicitamente categorias específicas de alto risco, independentemente da legalidade. |
O desafio da Anthropic a deixa isolada entre os "Quatro Grandes" laboratórios de IA em seu relacionamento com o setor de defesa.
Este isolamento representa um risco financeiro grave. A perda do contrato de US$ 200 milhões é significativa, mas o dano reputacional no setor governamental pode custar bilhões em receitas futuras. No entanto, no setor comercial, este movimento pode solidificar a marca da Anthropic como a alternativa de IA "confiável" para empresas cautelosas com o excesso de intervenção governamental e a privacidade de dados.
A batalha jurídica provavelmente está apenas começando. Se o Pentágono avançar com uma ação de execução da DPA para confiscar os pesos do modelo da Anthropic ou forçar mudanças no código, o caso quase certamente terminará na Suprema Corte. A questão jurídica central será se o código constitui discurso compelido e se o governo pode forçar uma entidade privada a construir uma arma contra sua vontade.
Por enquanto, a mensagem do Pentágono é clara: Na corrida pela dominância da IA, os freios de segurança são considerados um defeito, não uma característica. E para a Anthropic, o preço de seus princípios está prestes a se tornar muito caro.
As próximas semanas determinarão se outros gigantes da tecnologia se alinharão à doutrina militar "anti-woke" de Hegseth ou se a posição da Anthropic galvanizará uma resistência mais ampla entre os pesquisadores de IA que temem que suas criações estejam sendo militarizadas mais rápido do que podem ser controladas.