
Em um momento decisivo para a relação entre o Vale do Silício (Silicon Valley) e Washington, o CEO da Anthropic, Dario Amodei, rejeitou formalmente um ultimato do Departamento de Defesa dos EUA (U.S. Department of Defense). Faltando menos de 24 horas para o prazo final de sexta-feira, 27 de fevereiro de 2026, o conflito escalou para um impasse de alto risco envolvendo segurança nacional, Inteligência Artificial (Generative AI) ética e um contrato governamental de US$ 200 milhões.
A disputa centra-se em uma diretriz emitida pelo Secretário de Defesa Pete Hegseth no início desta semana, exigindo que a Anthropic forneça ao Pentágono uma versão "irrestrita" de seu modelo principal, Claude. Os militares buscam uma variante do Grande Modelo de Linguagem (Large Language Model - LLM) despojada de suas proteções de segurança para auxiliar na tomada de decisões táticas e em operações logísticas classificadas. A recusa de Amodei, articulada em uma carta divulgada publicamente na quinta-feira, prepara o terreno para um potencial confronto jurídico e regulatório que poderá redefinir como as empresas privadas de IA colaboram com o setor de defesa.
Na Creati.ai, temos monitorado de perto a divergência entre os padrões de segurança da IA comercial e os requisitos operacionais militares. Este último desenvolvimento marca a primeira vez que um grande laboratório de IA desafia abertamente um mandato operacional direto do Pentágono sob a ameaça de ser colocado na lista negra como um risco à segurança.
O cerne do desacordo reside nas necessidades operacionais específicas das forças armadas dos EUA versus a arquitetura fundamental dos produtos da Anthropic. De acordo com memorandos internos vazados no início desta semana, o Pentágono argumenta que a versão comercial padrão do Claude é "operacionalmente inadequada" para cenários de defesa de alto risco devido aos seus mecanismos de recusa.
Oficiais militares expressaram frustração pelo fato de os protocolos de segurança projetados para evitar discursos de ódio, geração de armas químicas ou viés político estarem dificultando a capacidade da IA de processar inteligência bruta e gerar opções táticas que podem envolver força letal ou estratégias agressivas de guerra cibernética (cyberwarfare). O ultimato do Secretário Hegseth foi claro: remova essas "restrições civis" para a instância de nível militar do Claude, ou enfrente a rescisão imediata do contrato.
A demanda especifica uma implantação personalizada do modelo onde a "Constituição" — o conjunto de princípios que governa o comportamento da IA — é substituída por uma estrutura específica da missão que prioriza o sucesso da missão em detrimento da redução de danos. O Pentágono insiste que, sem essas modificações, o atual contrato de US$ 200 milhões para otimização logística e síntese de inteligência é um desperdício do dinheiro dos contribuintes.
A resposta de Dario Amodei foi inequívoca. Em sua declaração, o CEO declarou que a Anthropic "não pode, em sã consciência, aceder a demandas que comprometam fundamentalmente a arquitetura de segurança que construímos".
Amodei argumentou que atender ao pedido do Pentágono não seria meramente uma mudança de política, mas um desmantelamento técnico da abordagem de "IA Constitucional (Constitutional AI)" da empresa. Ele enfatizou que criar uma versão "rebelde" do Claude sem filtros de segurança apresenta um risco existencial. Se tal modelo vazasse ou fosse submetido a engenharia reversa por adversários, poderia fornecer um roteiro para ataques cibernéticos automatizados ou síntese de armas biológicas sem as recusas inerentes que atualmente protegem o público.
Do ponto de vista técnico, a Anthropic afirma que a segurança não é um recurso adicional que pode ser desligado como um interruptor de luz. Ela é treinada nos pesos do modelo via Aprendizado por Reforço com Feedback Humano (Reinforcement Learning from Human Feedback - RLHF) e Modelagem de Recompensa Recursiva (Recursive Reward Modeling).
"Cumprir a solicitação do Departamento de Defesa para remover todas as proteções é, efetivamente, solicitar um produto inteiramente diferente — um que não construímos nem testamos", escreveu Amodei. Ele alertou ainda que uma IA não alinhada, mesmo nas mãos dos militares dos EUA, apresenta riscos imprevisíveis em relação a alucinações e escalada em cenários de conflito.
As apostas financeiras e de reputação são imensas. O Secretário Hegseth ameaçou não apenas cancelar o contrato existente, mas também rotular oficialmente a Anthropic como um "risco na cadeia de suprimentos (supply chain risk)".
Esta designação é uma opção nuclear na contratação governamental. Ela efetivamente impediria a Anthropic de competir por futuros contratos federais em todas as agências, não apenas no Departamento de Defesa. Além disso, poderia esfriar o relacionamento com clientes corporativos que mantêm padrões rígidos de conformidade que exigem fornecedores aprovados pelo governo.
A tabela abaixo descreve as divergências críticas entre o modelo operacional atual da Anthropic e os requisitos específicos do Pentágono para o prazo de sexta-feira.
Tabela: Pontos de Conflito Entre a Anthropic e o Pentágono
| Recurso/Política | Padrão de IA Constitucional da Anthropic | Requisito "Irrestrito" do Pentágono |
|---|---|---|
| Proteções de Segurança | Recusas codificadas para consultas letais/prejudiciais | Remoção de todos os mecanismos de recusa para dados de missão |
| Alinhamento do Modelo | Alinhado a valores humanos amplos e segurança | Alinhado estritamente aos objetivos da missão e cadeia de comando |
| Ambiente de Implantação | Sandbox controlado com monitoramento | Capacidade isolada (air-gapped), mas funcionalmente autônoma |
| Postura de Responsabilidade | O desenvolvedor retém a responsabilidade pela segurança da saída | O governo assume a responsabilidade; exige capacidade bruta |
O resultado deste impasse provavelmente servirá como um divisor de águas para toda a indústria de IA. Concorrentes como OpenAI e Google DeepMind estão observando de perto. Se o Pentágono forçar com sucesso a Anthropic a capitular ou a punir severamente pela recusa, isso estabelece um precedente de que a "Segurança Nacional" se sobrepõe aos compromissos privados de segurança.
Por outro lado, se a Anthropic mantiver sua posição e sobreviver às consequências políticas, isso solidificará o papel dos laboratórios privados como os árbitros finais da segurança da IA, independentemente das demandas estatais. Isso levanta questões complexas sobre soberania e o controle de tecnologias de uso duplo. Em 2026, a IA tornou-se tão crítica quanto a física nuclear foi no século XX; no entanto, ao contrário do Projeto Manhattan, o desenvolvimento permanece amplamente em mãos privadas.
Analistas do setor sugerem que, se o rótulo de "risco na cadeia de suprimentos" for aplicado, a Anthropic poderá ser forçada a se voltar inteiramente para o setor comercial, potencialmente retardando sua velocidade de pesquisa devido à perda de financiamento governamental lucrativo. Alternativamente, isso poderia desencadear uma batalha judicial chegando à Suprema Corte em relação ao poder do governo de obrigar o discurso (geração de código) de entidades privadas.
À medida que o prazo de sexta-feira se aproxima, o silêncio reina na sede da Anthropic em San Francisco. A recusa está na mesa, e a bola agora está com o Pentágono.
Para os leitores da Creati.ai, este evento ressalta o atrito entre os ideais teóricos da segurança da IA e as realidades brutais da competição geopolítica. Se o Claude continuará sendo um assistente "Útil, Honesto e Inofensivo (Helpful, Honest, and Harmless)" ou se tornará uma ferramenta armada do Estado, provavelmente será decidido nos próximos dias. A decisão tomada em 27 de fevereiro de 2026 não afetará apenas o lucro de uma única empresa, mas definirá os limites éticos da implantação militar de IA para a próxima década.