
En un momento definitorio para la relación entre Silicon Valley y Washington, el CEO de Anthropic, Dario Amodei, ha rechazado formalmente un ultimátum del Departamento de Defensa de los EE. UU. Con menos de 24 horas restantes antes de la fecha límite del viernes 27 de febrero de 2026, el conflicto ha escalado a un punto muerto de alto riesgo que involucra la seguridad nacional, la inteligencia artificial ética y un contrato gubernamental de 200 millones de dólares.
La disputa se centra en una directiva emitida por el Secretario de Defensa, Pete Hegseth, a principios de esta semana, que exige que Anthropic proporcione al Pentágono una versión "sin restricciones" de su modelo insignia, Claude. El ejército busca una variante del Modelo de Lenguaje Extenso (Large Language Model, LLM) despojada de sus salvaguardas de seguridad para ayudar en la toma de decisiones tácticas y operaciones logísticas clasificadas. La negativa de Amodei, articulada en una carta publicada el jueves, prepara el escenario para un potencial enfrentamiento legal y regulatorio que podría redefinir cómo las empresas privadas de IA colaboran con el sector de defensa.
En Creati.ai, hemos estado monitoreando de cerca la divergencia entre los estándares de seguridad de la IA comercial y los requisitos operativos militares. Este último acontecimiento marca la primera vez que un importante laboratorio de IA desafía abiertamente un mandato operativo directo del Pentágono (Pentagon) bajo la amenaza de ser incluido en una lista negra como un riesgo de seguridad.
El núcleo del desacuerdo radica en las necesidades operativas específicas de las fuerzas armadas de los EE. UU. frente a la arquitectura fundacional de los productos de Anthropic. Según memorandos internos filtrados a principios de esta semana, el Pentágono argumenta que la versión comercial estándar de Claude es "operativamente inadecuada" para escenarios de defensa de alto riesgo debido a sus mecanismos de rechazo.
Los oficiales militares han expresado su frustración porque los protocolos de seguridad diseñados para prevenir el discurso de odio, la generación de armas químicas o el sesgo político están obstaculizando la capacidad de la IA para procesar inteligencia bruta y generar opciones tácticas que pueden involucrar fuerza letal o estrategias agresivas de ciberguerra. El ultimátum del Secretario Hegseth fue claro: eliminar estas "restricciones civiles" para la instancia de grado militar de Claude, o enfrentar la terminación inmediata del contrato.
La demanda especifica un despliegue personalizado del modelo donde la "Constitución" —el conjunto de principios que rigen el comportamiento de la IA— se reemplace por un marco de trabajo específico para la misión que priorice el éxito de la misión sobre la reducción de daños. El Pentágono insiste en que, sin estas modificaciones, el contrato actual de 200 millones de dólares para la optimización logística y la síntesis de inteligencia es un desperdicio del dinero de los contribuyentes.
La respuesta de Dario Amodei fue inequívoca. En su declaración, el CEO declaró que Anthropic "no puede, en buena conciencia, acceder a demandas que comprometan fundamentalmente la arquitectura de seguridad que hemos construido".
Amodei argumentó que acceder a la solicitud del Pentágono no sería simplemente un cambio de política, sino un desmantelamiento técnico del enfoque de “IA Constitucional (Constitutional AI)” de la empresa. Enfatizó que crear una versión "rebelde" de Claude sin filtros de seguridad presenta un riesgo existencial. Si tal modelo se filtrara o fuera sometido a ingeniería inversa por adversarios, podría proporcionar un plano para ciberataques automatizados o síntesis de armas biológicas sin los rechazos inherentes que actualmente protegen al público.
Desde una perspectiva técnica, Anthropic afirma que la seguridad no es una característica adicional que se pueda desactivar como un interruptor de luz. Está entrenada en los pesos del modelo a través del Aprendizaje por Refuerzo a partir de la Retroalimentación Humana (Reinforcement Learning from Human Feedback, RLHF) y el Modelado de Recompensas Recursivas (Recursive Reward Modeling).
"Cumplir con la solicitud del Departamento de Defensa de eliminar todas las salvaguardas es, efectivamente, solicitar un producto completamente diferente, uno que no hemos construido ni probado", escribió Amodei. Además, advirtió que una IA no alineada, incluso en manos de las fuerzas armadas de los EE. UU., plantea riesgos impredecibles con respecto a la alucinación y la escalada en escenarios de conflicto.
Los riesgos financieros y de reputación son inmensos. El Secretario Hegseth ha amenazado no solo con cancelar el contrato existente, sino con etiquetar oficialmente a Anthropic como un “riesgo en la cadena de suministro (supply chain risk)”.
Esta designación es una opción nuclear en la contratación gubernamental. Prohibiría efectivamente a Anthropic competir por futuros contratos federales en todas las agencias, no solo en el Departamento de Defensa. Además, podría enfriar las relaciones con clientes empresariales que mantienen estrictos estándares de cumplimiento que requieren proveedores aprobados por el gobierno.
La tabla a continuación describe las divergencias críticas entre el modelo operativo actual de Anthropic y los requisitos específicos del Pentágono para la fecha límite del viernes.
Tabla: Puntos de conflicto entre Anthropic y el Pentágono
| Característica/Política | Estándar de IA Constitucional de Anthropic | Requisito de "no restricción" del Pentágono |
|---|---|---|
| Salvaguardas de seguridad | Rechazos codificados para consultas letales/dañinas | Eliminación de todos los mecanismos de rechazo para datos de misión |
| Alineación del modelo | Alineado con valores humanos amplios y seguridad | Alineado estrictamente con los objetivos de la misión y la cadena de mando |
| Entorno de despliegue | Entorno controlado con monitoreo | Capacidad con aislamiento físico (air-gapped) pero funcionalmente autónoma |
| Postura de responsabilidad | El desarrollador retiene la responsabilidad por la seguridad de la salida | El gobierno asume la responsabilidad; exige capacidad bruta |
El resultado de este punto muerto servirá probablemente como un indicador (bellwether) para toda la industria de la IA. Competidores como OpenAI y Google DeepMind están observando de cerca. Si el Pentágono obliga con éxito a Anthropic a capitular o los castiga severamente por su negativa, se establece un precedente de que la "Seguridad Nacional" prevalece sobre los compromisos de seguridad privados.
Por el contrario, si Anthropic mantiene su postura y sobrevive a las repercusiones políticas, solidifica el papel de los laboratorios privados como los árbitros definitivos de la seguridad de la IA, independientemente de las demandas estatales. Esto plantea preguntas complejas sobre la soberanía y el control de las tecnologías de doble uso. Para 2026, la IA se ha vuelto tan crítica como lo fue la física nuclear en el siglo XX; sin embargo, a diferencia del Proyecto Manhattan (Manhattan Project), el desarrollo permanece en gran medida en manos privadas.
Los analistas de la industria sugieren que si se aplica la etiqueta de "riesgo en la cadena de suministro", Anthropic podría verse obligada a pivotar completamente hacia el sector comercial, ralentizando potencialmente su velocidad de investigación debido a la pérdida de lucrativo financiamiento gubernamental. Alternativamente, esto podría desencadenar una batalla legal que llegue a la Corte Suprema con respecto al poder del gobierno para obligar al habla (generación de código) de entidades privadas.
A medida que se acerca la fecha límite del viernes, el silencio reina desde la sede de Anthropic en San Francisco. La negativa está sobre la mesa, y la pelota está ahora en la cancha del Pentágono.
Para los lectores de Creati.ai, este evento subraya la fricción entre los ideales teóricos de la seguridad de la IA y las brutales realidades de la competencia geopolítica. Si Claude sigue siendo un asistente "Útil, Honesto e Inofensivo" (Helpful, Honest, and Harmless) o se convierte en una herramienta militarizada del estado, probablemente se decidirá en los próximos días. La decisión tomada el 27 de febrero de 2026 no solo afectará el balance final de una sola empresa, sino que definirá los límites éticos del despliegue militar de la IA para la década venidera.