
En una escalada significativa del conflicto de propiedad intelectual entre los laboratorios de inteligencia artificial estadounidenses y chinos, Anthropic ha acusado públicamente a tres destacadas empresas chinas —DeepSeek, Moonshot AI y MiniMax— de orquestar una campaña masiva y coordinada para extraer capacidades de su modelo insignia, Claude. La startup de seguridad de IA con sede en San Francisco caracteriza la operación como un "robo a escala industrial" (industrial-scale theft), que involucra más de 16 millones de intercambios no autorizados generados a través de una sofisticada red de cuentas fraudulentas.
Esta revelación marca una de las acusaciones más específicas y cuantificadas de robo de datos de IA hasta la fecha. Según Anthropic, la operación no fue un simple raspado oportunista, sino un "ataque de destilación" (distillation attack) deliberado diseñado para entrenar modelos rivales utilizando los resultados de razonamiento avanzado y codificación de Claude. El incidente subraya la creciente tensión en la carrera armamentista global de la IA, donde la línea entre la investigación competitiva y la extracción ilícita se está volviendo cada vez más volátil.
El equipo de seguridad de Anthropic identificó una extensa infraestructura de aproximadamente 24,000 cuentas fraudulentas utilizadas para eludir los términos de servicio de la empresa y las restricciones de acceso regional. Dado que Claude no está disponible comercialmente en China, las empresas acusadas supuestamente utilizaron servicios de proxy comercial para ocultar sus orígenes, creando lo que los ingenieros de Anthropic han denominado "clústeres Hydra" (Hydra clusters): redes de cuentas que distribuyen el tráfico a través de API de terceros para evadir la detección.
La escala de la operación se inclinó fuertemente hacia MiniMax, un unicornio con sede en Shanghái, que según Anthropic fue responsable de la mayor parte del tráfico ilícito. Si bien DeepSeek ha captado recientemente una gran atención mediática por sus eficientes modelos de código abierto, fue MiniMax la que presuntamente llevó a cabo la campaña de extracción más agresiva en este caso.
Desglose de la supuesta actividad de destilación
| Firma acusada | Intercambios estimados | Capacidades objetivo principales | Escala de la operación |
|---|---|---|---|
| MiniMax | > 13,000,000 | Razonamiento agéntico, uso de herramientas | Masiva / Industrial |
| Moonshot AI | > 3,400,000 | Procesamiento de contexto largo, codificación | Significativa |
| DeepSeek | > 150,000 | Razonamiento de cadena de pensamiento (Chain-of-thought) | Dirigida / Estratégica |
Datos basados en el informe de inteligencia de amenazas de Anthropic publicado en febrero de 2026.
La disparidad en el volumen sugiere diferentes objetivos estratégicos para cada empresa. El enorme volumen de MiniMax indica un intento generalizado de replicar las capacidades de propósito general de Claude, particularmente en tareas "agénticas" (agentic) donde el modelo actúa de forma autónoma. En contraste, la huella más pequeña de DeepSeek parece haber sido altamente quirúrgica, centrándose en cadenas de razonamiento específicas de alto valor para ajustar sus arquitecturas existentes.
En el corazón de esta controversia se encuentra la práctica de la "destilación de conocimiento" (knowledge distillation). En un contexto legítimo, los desarrolladores utilizan un modelo "maestro" grande para entrenar un modelo "estudiante" más pequeño y eficiente. Este proceso comprime el conocimiento de un sistema masivo en una versión más rápida y económica, lo cual es una práctica estándar para el desarrollo interno de productos.
Sin embargo, Anthropic sostiene que cuando un competidor realiza esto sin permiso, constituye una violación de los términos y un robo de inteligencia patentada. Al alimentar a Claude con millones de prompts complejos y recolectar sus respuestas, los laboratorios chinos eludieron efectivamente los inmensos costos de cómputo y curación de datos requeridos para entrenar un modelo de frontera desde cero.
"Estos laboratorios no solo están aprendiendo de nosotros; están fotocopiando efectivamente los resultados de miles de millones de dólares en I+D", afirmó un portavoz de Anthropic. El informe destaca que las consultas no eran interacciones típicas de los usuarios. En cambio, eran estructuralmente distintas, a menudo involucrando desafíos de codificación complejos o solicitudes de razonamiento paso a paso que son ideales para los conjuntos de datos de entrenamiento (Fine-Tuning Data).
Anthropic ha enmarcado este incidente no solo como una disputa comercial, sino como un imperativo de seguridad nacional (national security). La empresa argumenta que la destilación ilícita representa un peligro único: elimina las salvaguardas de seguridad (safety guardrails) integradas en el modelo original.
Cuando se destila un modelo como Claude, el modelo "estudiante" aprende las capacidades (cómo escribir malware, cómo sintetizar productos químicos) sin aprender necesariamente las negativas de seguridad o las alineaciones morales que Anthropic pasa meses reforzando. Esto da como resultado "capacidades desprotegidas" que pueden ser desplegadas por regímenes autoritarios o actores malintencionados sin las restricciones integradas del modelo de origen.
Implicaciones de la destilación ilícita
La detección de esta campaña se basó en análisis de comportamiento avanzados. El equipo de "Confianza y Seguridad" (Trust and Safety) de Anthropic notó anomalías en los patrones de tráfico que los usuarios humanos rara vez exhiben, como consultas distintas las 24 horas del día, los 7 días de la semana sin tiempo de inactividad, y una alta densidad de prompts de "estilo jailbreak" (jailbreak-style) diseñados para probar los límites del modelo.
Al correlacionar las direcciones IP y los métodos de pago asociados con los servicios de proxy, Anthropic pudo agrupar las 24,000 cuentas en clústeres distintos atribuidos a las tres empresas específicas. Desde entonces, la compañía ha suspendido estas cuentas e implementado protocolos más estrictos de "Conozca a su cliente" (Know Your Customer o KYC) para el acceso a la API, aunque reconocen que la naturaleza de "juego del topo" (whack-a-mole) de las redes proxy dificulta la prevención permanente.
Esta acusación se produce semanas después de que OpenAI presentara cargos similares, aunque menos detallados, contra competidores chinos, lo que sugiere un patrón sistémico en toda la industria. El atajo de la "destilación" se está convirtiendo en el método principal para que los competidores rezagados cierren la brecha con los modelos de frontera estadounidenses.
Para la comunidad de IA, este incidente plantea preguntas críticas sobre la aplicabilidad de los Términos de Servicio en una economía digital global. A medida que los modelos se vuelven más potentes, el valor de sus resultados aumenta, convirtiéndolos en objetivos lucrativos para la extracción. Podemos esperar que esto acelere la presión por acciones legislativas, lo que podría conducir a nuevas regulaciones en EE. UU. que traten los pesos y los resultados de los modelos como mercancías controladas, sujetas al mismo escrutinio estricto que las GPU de alta gama actualmente restringidas para la exportación a China.
A medida que el polvo se asienta, la atención se centra en cómo responderán DeepSeek, Moonshot y MiniMax. Aunque históricamente han guardado silencio ante tales acusaciones, la especificidad de los datos de Anthropic deja poco margen para la ambigüedad respecto al origen de los ataques.