
O Secretário de Defesa (Defense Secretary) Pete Hegseth convocou o CEO da Anthropic, Dario Amodei, ao Pentágono para um confronto crítico hoje, marcando um potencial ponto de ruptura no relacionamento entre os militares dos EUA e o laboratório focado em segurança de IA (AI safety). Fontes familiarizadas com o assunto descrevem a reunião agendada como um "confronto tenso" e um "momento decisivo" em relação ao uso militar do principal modelo de IA da Anthropic, o Claude.
A convocação ocorre após meses de atrito crescente entre o Departamento de Defesa (DoD) e a Anthropic devido à recusa desta última em remover salvaguardas de segurança específicas. Enquanto o Pentágono pressiona agressivamente para integrar a IA de fronteira (frontier AI) em sua "força de combate focada em IA (AI-first warfighting force)", a Anthropic tem se mantido firme na proibição de que sua tecnologia seja usada para vigilância em massa de americanos e para o desenvolvimento de armas letais autônomas (autonomous lethal weapons).
Oficiais graduados da Defesa teriam perdido a paciência com o que veem como uma ideologia corporativa que prejudica a segurança nacional (national security). Um oficial, falando sob condição de anonimato, caracterizou a reunião ao Axios como "não sendo um encontro amigável", acrescentando: "Esta é uma reunião de 'ou caga ou sai da moita' (sh*t-or-get-off-the-pot)". O DoD está ameaçando implantar uma "opção nuclear" na contratação governamental: rotular a Anthropic como um "risco na cadeia de suprimentos (supply chain risk)".
O cerne da disputa reside na ameaça do Pentágono de designar formalmente a Anthropic como um risco na cadeia de suprimentos. Esta designação é muito mais prejudicial do que simplesmente cancelar um único contrato. Se promulgada, ela desencadearia um expurgo obrigatório da tecnologia da Anthropic em toda a base industrial de defesa.
Atualmente, o Claude é o único modelo de fronteira implantado em certas redes classificadas, profundamente integrado por meio de parceiros terceirizados como Palantir e Amazon Web Services (AWS). Um rótulo de "risco na cadeia de suprimentos" obrigaria legalmente esses contratantes principais (prime contractors) a romper laços com a Anthropic para manter sua própria posição perante o governo federal.
"Será uma dor enorme para desvincular, e vamos garantir que eles paguem o preço por forçar nossa mão dessa forma", afirmou um alto oficial do Pentágono. Tal medida efetivamente colocaria a Anthropic em uma lista negra do setor público, comprometendo seu contrato piloto de US$ 200 milhões e fechando o lucrativo mercado governamental, enquanto concorrentes como OpenAI, Google e xAI se movem para ocupar o vácuo.
As tensões supostamente transbordaram após a operação militar de 3 de janeiro de 2026 na Venezuela, que resultou na captura do ex-presidente Nicolás Maduro. Relatos indicam que o Claude foi utilizado durante a operação por meio da plataforma Gotham da Palantir para analisar inteligência em tempo real (real-time intelligence).
Após a incursão, a Anthropic teria solicitado detalhes à Palantir sobre como seu modelo foi utilizado, citando verificações de conformidade de sua Política de Uso (Usage Policy). Essa investigação enfureceu a liderança do Pentágono, que a viu como uma empresa privada tentando auditar uma operação militar classificada.
Em resposta, o Secretário Hegseth emitiu um memorando em 9 de janeiro instando todos os fornecedores de IA a removerem "restrições não padronizadas" de seus termos de serviço, exigindo que os modelos sejam disponibilizados para "fins legais de toda natureza". Enquanto a Anthropic argumenta que suas políticas são salvaguardas éticas essenciais, o DoD as vê como obstruções "antidemocráticas" a ordens legais emitidas pelo Comandante-em-Chefe.
O Subsecretário Emil Michael criticou publicamente a postura da Anthropic no início desta semana, argumentando que as empresas de tecnologia não devem se sobrepor ao governo eleito em decisões políticas. "O Congresso redige projetos de lei, o presidente os assina, as agências redigem regulamentos e as pessoas cumprem", disse Michael aos jornalistas. "O que não vamos fazer é deixar qualquer empresa ditar um novo conjunto de políticas acima e além do que o Congresso aprovou."
O confronto destaca uma fenda crescente no Vale do Silício (Silicon Valley). Enquanto a Anthropic se apega aos seus limites de segurança da IA Constitucional (Constitutional AI), seus concorrentes estão se alinhando rapidamente ao novo padrão de "todos os usos legais" do Pentágono. Relatórios sugerem que a xAI e o Google estão próximos de acordos que concederiam aos militares o acesso irrestrito que exigem, colocando imensa pressão sobre Amodei para capitular ou enfrentar o isolamento.
A tabela a seguir descreve a postura atual dos principais laboratórios de IA em relação à integração militar:
Postura do Laboratório de IA na Integração Militar
| Nome do Laboratório | Modelo Principal | Postura da Política Militar | Status Atual no DoD |
|---|---|---|---|
| Anthropic | Claude | Restritiva: Proíbe armas autônomas e vigilância doméstica. | Sob Revisão: Enfrentando rótulo de "Risco na Cadeia de Suprimentos". |
| OpenAI | GPT-4/5 | Moderada: Removeu proibição de "militar e guerra"; permite uso em "segurança nacional". | Ativa: Implantada na plataforma GenAI.mil. |
| xAI | Grok | Permissiva: Aberta a "todos os fins legais" sem restrições ideológicas. | Negociando: Assinou acordos iniciais com o DoD. |
| Gemini | Permissiva: Alinhando-se à "Estratégia de Aceleração de IA" do DoD. | Expandindo: Aprofundando integração via contratos de nuvem. |
Para Dario Amodei, a decisão carrega um peso existencial para a missão da Anthropic. A empresa foi fundada sob a premissa da segurança e interpretabilidade da IA, com uma "Constituição" projetada para evitar o uso indevido. Capitular à exigência do Pentágono para permitir o desenvolvimento de armamento autônomo violaria fundamentalmente a carta de fundação da empresa e potencialmente alienaria sua força de trabalho focada em segurança.
No entanto, a alternativa — ser colocada na lista negra pelo maior cliente do mundo e rotulada como um risco de segurança — poderia prejudicar severamente a receita e a influência da empresa. O Pentágono deixou claro: eles precisam de ferramentas que sigam ordens, não de ferramentas que façam perguntas morais.
Enquanto Amodei entra no Pentágono hoje, ele enfrenta um ultimato que definirá o futuro da IA militar. Irá a Anthropic comprometer sua ética pela sobrevivência, ou se tornará a primeira vítima da nova estratégia de linha dura de IA do Pentágono? A indústria prende a respiração.