
El plazo ha vencido y la división entre el laboratorio de IA de Silicon Valley centrado en la seguridad y el ejército de EE. UU. se ha convertido en un abismo. A partir del sábado por la mañana, Anthropic —el fabricante de los modelos de IA Claude— ha rechazado oficialmente un ultimátum del Secretario de Defensa Pete Hegseth para otorgar al ejército acceso sin restricciones a su tecnología. En respuesta, el Pentágono ha actuado rápidamente para designar a la empresa como un "riesgo para la cadena de suministro" (supply chain risk), rompiendo efectivamente un contrato de 200 millones de dólares y preparando el terreno para un enfrentamiento legal y ético sin precedentes sobre la militarización de la inteligencia artificial.
Este enfrentamiento marca un punto de inflexión histórico para la industria de la IA. Por primera vez, un importante desarrollador de IA ha arriesgado sus ingresos gubernamentales y su posición comercial para mantener "líneas rojas" éticas con respecto a las armas autónomas y la vigilancia masiva, desafiando directamente la presión de la administración Trump para eliminar lo que denomina restricciones "woke" en la tecnología militar.
La crisis llegó a su punto crítico el viernes 27 de febrero, la fecha límite establecida por el Secretario Hegseth para que Anthropic capitulara. A principios de semana, Hegseth había convocado al CEO de Anthropic, Dario Amodei, al Pentágono, entregándole un mensaje contundente: eliminen las "barreras de seguridad" (guardrails) que impiden que Claude sea utilizado para cadenas de eliminación autónomas y vigilancia nacional, o enfrenten todo el peso del gobierno federal.
Según fuentes cercanas a las negociaciones, el Pentágono exigió un "acceso sin trabas" a las capacidades de Claude, argumentando que en una era de competencia entre grandes potencias, el ejército de EE. UU. no puede verse obstaculizado por políticas éticas corporativas. Hegseth, quien ha prometido purgar la "cultura woke" de las fuerzas armadas, apuntó específicamente al marco de "IA Constitucional" (Constitutional AI) de Anthropic —un sistema de seguridad diseñado para evitar que el modelo genere contenido dañino, ilegal o poco ético— como una responsabilidad para la seguridad nacional.
En un comunicado emitido poco antes de la fecha límite, Amodei se mantuvo firme. "No podemos, con la conciencia tranquila, acceder a estas demandas", escribió el CEO. Reiteró que, si bien Anthropic apoya aplicaciones militares defensivas legítimas, establece una línea dura en dos casos de uso específicos: la vigilancia nacional masiva de ciudadanos estadounidenses y los sistemas de fijación de objetivos totalmente autónomos donde la IA toma decisiones letales sin intervención humana.
Las consecuencias de este rechazo comenzaron a materializarse a última hora de la noche del viernes. El Departamento de Defensa (DoD) inició los trámites para clasificar a Anthropic como un "riesgo para la cadena de suministro". Esta designación es mucho más dañina que una simple cancelación de contrato; funciona efectivamente como una lista negra.
Implicaciones de la designación de "riesgo para la cadena de suministro":
Quizás lo más alarmante para la industria tecnológica fue la amenaza de Hegseth de invocar la Ley de Producción de Defensa (Defense Production Act, DPA). Promulgada originalmente durante la Guerra de Corea, la DPA otorga al presidente poderes amplios para obligar a las empresas privadas a priorizar los contratos gubernamentales y controlar la distribución de materiales críticos. Los expertos legales advierten que el uso de la DPA para incautar propiedad intelectual —específicamente los pesos del modelo de una IA propietaria— o para obligar a una empresa a alterar su código en contra de sus protocolos de seguridad sería una expansión sin precedentes del poder ejecutivo.
La fricción entre los dos bandos fue palpable durante la reunión del martes que precipitó el plazo. Las fuentes describieron el encuentro como "cordial pero frío", con Hegseth acusando a Anthropic de priorizar la ética abstracta de Silicon Valley sobre las vidas estadounidenses.
Hegseth reportedly yuxtapuso la recalcitrancia de Anthropic con la cooperación de otras firmas de IA. Mencionó explícitamente a xAI, la empresa de inteligencia artificial de Elon Musk, que ya ha aceptado una cláusula de "uso legal" que no impone restricciones técnicas específicas a las aplicaciones militares. El argumento del Secretario de Defensa enmarca las medidas de seguridad de la IA (AI safety) no como prudencia, sino como "restricciones ideológicas" que debilitan al combatiente estadounidense.
Para Amodei, el rechazo es coherente con la misión fundacional de Anthropic. La empresa fue creada por antiguos investigadores de OpenAI específicamente para evitar los atajos de seguridad que creían que estaban plagando la industria. Capitular ante la demanda del Pentágono de capacidad de fijación de objetivos autónoma habría sido una traición a la estructura central de "Long-Term Benefit Trust" de la empresa.
El disputa se centra en dos visiones fundamentalmente diferentes de la utilidad y el riesgo de la IA. La tabla a continuación resume los puntos específicos de contención que llevaron a la terminación del contrato.
Tabla 1: Las demandas del Pentágono frente a los límites éticos de Anthropic
| Punto de conflicto | Demanda del Pentágono (Doctrina Hegseth) | Postura de Anthropic (IA Constitucional) |
|---|---|---|
| Armas autónomas | Integración total de la IA en las "cadenas de eliminación" para acelerar la letalidad y la velocidad de toma de decisiones. | Prohibición estricta de que la IA tome decisiones letales de fijación de objetivos sin un control humano significativo. |
| Vigilancia nacional | Uso de la IA para analizar datos masivos para la seguridad interna y la detección de amenazas. | Negativa a permitir que los modelos se utilicen para el monitoreo masivo de ciudadanos estadounidenses o el seguimiento de la disidencia. |
| Protocolos de seguridad | Eliminación de filtros "ideológicos" (etiquetados como "IA woke") que limitan la utilidad militar. | Mantenimiento de barreras de seguridad para prevenir el mal uso, el sesgo y la violación de los derechos humanos. |
| Control contractual | Licencia sin restricciones para usar el modelo para "todos los fines legales" definidos por la rama ejecutiva. | Términos de servicio que prohíben explícitamente categorías específicas de alto riesgo independientemente de su legalidad. |
El desafío de Anthropic la deja aislada entre los "Cuatro Grandes" (Big Four) laboratorios de IA en su relación con el sector de la defensa.
Este aislamiento plantea un riesgo financiero severo. La pérdida del contrato de 200 millones de dólares es significativa, pero el daño a la reputación en el sector gubernamental podría costar miles de millones en ingresos futuros. Sin embargo, en el sector comercial, este movimiento puede consolidar la marca de Anthropic como la alternativa de IA "confiable" para las empresas que desconfían del exceso de alcance gubernamental y la privacidad de los datos.
La batalla legal apenas está comenzando. Si el Pentágono sigue adelante con una acción de cumplimiento de la DPA para incautar los pesos del modelo de Anthropic o forzar cambios en el código, el caso casi con seguridad terminará en la Corte Suprema. La cuestión legal central será si el código constituye un discurso obligado y si el gobierno puede obligar a una entidad privada a construir un arma contra su voluntad.
Por ahora, el mensaje del Pentágono es claro: en la carrera por el dominio de la IA, los frenos de seguridad se consideran un defecto, no una característica. Y para Anthropic, el precio de sus principios está a punto de volverse muy caro.
Las próximas semanas determinarán si otros gigantes tecnológicos se alinearán con la doctrina militar "anti-woke" de Hegseth o si la postura de Anthropic galvanizará una resistencia más amplia entre los investigadores de IA que temen que sus creaciones se estén militarizando más rápido de lo que pueden ser controladas.