
El Secretario de Defensa Pete Hegseth ha convocado hoy al CEO de Anthropic, Dario Amodei, al Pentágono para una confrontación crítica, lo que marca un posible punto de ruptura en la relación entre el ejército de los EE. UU. y el laboratorio centrado en la seguridad de la IA (AI safety). Las fuentes familiarizadas con el asunto describen la reunión programada como una "confrontación tensa" y un "momento decisivo" respecto al uso militar del modelo de IA insignia de Anthropic, Claude.
La citación se produce tras meses de fricciones crecientes entre el Departamento de Defensa (DoD) y Anthropic por la negativa de esta última a levantar salvaguardas de seguridad específicas. Mientras el Pentágono presiona agresivamente para integrar la IA de vanguardia (Frontier AI) en su "fuerza de combate enfocada en la IA", Anthropic se ha mantenido firme en prohibir que su tecnología se utilice para la vigilancia masiva de estadounidenses y el desarrollo de armas letales totalmente autónomas.
Se informa que los altos funcionarios de defensa han perdido la paciencia con lo que consideran una ideología corporativa que obstaculiza la seguridad nacional. Un funcionario, hablando bajo condición de anonimato, caracterizó la reunión ante Axios como "no una reunión amistosa", añadiendo: "Esta es una reunión de 'o cagas o dejas el orinal' (sh*t-or-get-off-the-pot)". El DoD amenaza con desplegar una "opción nuclear" en la contratación gubernamental: etiquetar a Anthropic como un "riesgo para la cadena de suministro".
El núcleo de la disputa radica en la amenaza del Pentágono de designar formalmente a Anthropic como un riesgo para la cadena de suministro (supply chain risk). Esta designación es mucho más perjudicial que simplemente cancelar un solo contrato. Si se promulga, desencadenaría una purga obligatoria de la tecnología de Anthropic en toda la base industrial de defensa.
Actualmente, Claude es el único modelo de vanguardia desplegado dentro de ciertas redes clasificadas, profundamente integrado a través de socios externos como Palantir y Amazon Web Services (AWS). Una etiqueta de "riesgo para la cadena de suministro" obligaría legalmente a estos contratistas principales a romper vínculos con Anthropic para mantener su propio estatus ante el gobierno federal.
"Será un dolor enorme desenredarlo, y nos aseguraremos de que paguen un precio por forzarnos la mano de esta manera", afirmó un alto funcionario del Pentágono. Tal medida pondría efectivamente a Anthropic en una lista negra del sector público, poniendo en peligro su contrato piloto de 200 millones de dólares y cerrando el lucrativo mercado gubernamental, mientras competidores como OpenAI, Google y xAI se mueven para capturar el vacío.
Según se informa, las tensiones estallaron tras la operación militar del 3 de enero de 2026 en Venezuela que resultó en la captura del expresidente Nicolás Maduro. Los informes indican que Claude fue utilizado durante la operación a través de la plataforma Gotham de Palantir para analizar inteligencia en tiempo real.
Tras la redada, Anthropic supuestamente solicitó detalles a Palantir sobre cómo se utilizó su modelo, citando sus verificaciones de cumplimiento de la Política de Uso. Esta consulta enfureció a los líderes del Pentágono, quienes la vieron como una empresa privada intentando auditar una operación militar clasificada.
En respuesta, el Secretario Hegseth emitió un memorando el 9 de enero instando a todos los proveedores de IA a eliminar las "restricciones no estándar" de sus términos de servicio, exigiendo que los modelos estén disponibles para "todos los fines lícitos". Mientras Anthropic argumenta que sus políticas son salvaguardas éticas esenciales, el DoD las ve como obstrucciones "antidemocráticas" a las órdenes legales emitidas por el Comandante en Jefe.
El Subsecretario Emil Michael criticó públicamente la postura de Anthropic a principios de esta semana, argumentando que las empresas tecnológicas no deberían suplantar al gobierno electo en las decisiones políticas. "El Congreso redacta los proyectos de ley, el presidente los firma, las agencias redactan las regulaciones y la gente cumple", dijo Michael a los periodistas. "Lo que no vamos a hacer es dejar que ninguna empresa dicte un nuevo conjunto de políticas por encima de lo que el Congreso ha aprobado".
El enfrentamiento pone de relieve una brecha cada vez mayor en Silicon Valley. Mientras Anthropic se aferra a sus límites de seguridad de la "IA constitucional" (Constitutional AI), sus competidores se están alineando rápidamente con el nuevo estándar de "todos los usos lícitos" del Pentágono. Los informes sugieren que xAI y Google están cerca de acuerdos que otorgarían al ejército el acceso sin restricciones que demanda, ejerciendo una presión inmensa sobre Amodei para que capitule o se enfrente al aislamiento.
La siguiente tabla resume la postura actual de los principales laboratorios de IA con respecto a la integración militar:
Postura de los laboratorios de IA sobre la integración militar
| Nombre del laboratorio | Modelo principal | Postura política militar | Estado actual del DoD |
|---|---|---|---|
| Anthropic | Claude | Restrictiva: Prohíbe las armas autónomas y la vigilancia nacional. | En revisión: Enfrentando la etiqueta de "Riesgo para la cadena de suministro". |
| OpenAI | GPT-4/5 | Moderada: Se eliminó la prohibición de "uso militar y bélico"; permite el uso para "seguridad nacional". | Activo: Desplegado en la plataforma GenAI.mil. |
| xAI | Grok | Permisiva: Abierta a "todos los fines lícitos" sin restricciones ideológicas. | Negociando: Se firmaron acuerdos iniciales con el DoD. |
| Gemini | Permisiva: Alineándose con la "Estrategia de aceleración de la IA" del DoD. | Expandiendo: Profundizando la integración a través de contratos en la nube. |
Para Dario Amodei, la decisión conlleva un peso existencial para la misión de Anthropic. La empresa se fundó sobre la premisa de la seguridad e interpretabilidad de la IA, con una "Constitución" diseñada para evitar el uso indebido. Capitular ante la demanda del Pentágono de permitir el desarrollo de armamento autónomo violaría fundamentalmente la carta fundacional de la empresa y potencialmente alienaría a su fuerza laboral centrada en la seguridad.
Sin embargo, la alternativa —ser incluido en la lista negra por el cliente más grande del mundo y ser etiquetado como un riesgo para la seguridad— podría obstaculizar gravemente los ingresos y la influencia de la empresa. El Pentágono lo ha dejado claro: necesitan herramientas que sigan órdenes, no herramientas que planteen preguntas morales.
Mientras Amodei entra hoy al Pentágono, se enfrenta a un ultimátum que definirá el futuro de la IA militar. ¿Comprometerá Anthropic su ética para sobrevivir, o se convertirá en la primera víctima de la nueva estrategia de línea dura del Pentágono en materia de IA? La industria contiene la respiración.