
Numa escalada significativa do conflito de propriedade intelectual entre os laboratórios de inteligência artificial americanos e chineses, a Anthropic acusou publicamente três empresas líderes chinesas — DeepSeek, Moonshot AI e MiniMax — de orquestrarem uma campanha massiva e coordenada para extrair capacidades do seu modelo principal, Claude. A startup de segurança de IA baseada em São Francisco caracteriza a operação como um "roubo em escala industrial" (industrial-scale theft), envolvendo mais de 16 milhões de intercâmbios não autorizados gerados através de uma rede sofisticada de contas fraudulentas.
Esta revelação marca uma das alegações mais específicas e quantificadas de roubo de dados de IA até hoje. De acordo com a Anthropic, a operação não foi apenas uma raspagem oportunista, mas um "ataque de destilação" (distillation attack) deliberado, concebido para treinar modelos rivais utilizando as saídas avançadas de raciocínio e codificação do Claude. O incidente sublinha a tensão crescente na corrida armamentista global de IA, onde a linha entre a investigação competitiva e a extração ilícita está a tornar-se cada vez mais volátil.
A equipa de segurança da Anthropic identificou uma infraestrutura abrangente de aproximadamente 24.000 contas fraudulentas utilizadas para contornar os termos de serviço da empresa e as restrições de acesso regional. Uma vez que o Claude não está disponível comercialmente na China, as empresas acusadas alegadamente utilizaram serviços de proxy comercial para mascarar as suas origens, criando o que os engenheiros da Anthropic designaram por "clusters Hydra (Hydra clusters)" — redes de contas que distribuem o tráfego através de APIs de terceiros para evitar a deteção.
A escala da operação foi fortemente inclinada para a MiniMax, um unicórnio sediado em Xangai, que a Anthropic afirma ter sido responsável pela maior parte do tráfego ilícito. Embora a DeepSeek tenha atraído recentemente uma atenção mediática significativa pelos seus modelos eficientes de código aberto, foi a MiniMax que alegadamente conduziu a campanha de extração mais agressiva neste caso.
Divisão da Alegada Atividade de Destilação
| Empresa Acusada | Intercâmbios Estimados | Principais Capacidades Alvo | Escala da Operação |
|---|---|---|---|
| MiniMax | > 13.000.000 | Raciocínio agêntico (agentic reasoning), uso de ferramentas | Massiva / Industrial |
| Moonshot AI | > 3.400.000 | Processamento de contexto longo, codificação | Significativa |
| DeepSeek | > 150.000 | Raciocínio de cadeia de pensamento (chain-of-thought) | Direcionada / Estratégica |
Dados baseados no relatório de inteligência de ameaças da Anthropic lançado em fevereiro de 2026.
A disparidade no volume sugere objetivos estratégicos diferentes para cada empresa. O volume massivo da MiniMax indica uma tentativa ampla de replicar as capacidades de uso geral do Claude, particularmente em tarefas "agênticas" onde o modelo atua de forma autónoma. Em contraste, a pegada menor da DeepSeek parece ter sido altamente cirúrgica, focando-se em cadeias de raciocínio específicas de alto valor para ajustar as suas arquiteturas existentes.
No cerne desta controvérsia está a prática de "destilação de conhecimento" (knowledge distillation). Num contexto legítimo, os desenvolvedores utilizam um modelo "mestre" (teacher) de grande porte para treinar um modelo "aluno" (student) menor e mais eficiente. Este processo comprime o conhecimento de um sistema massivo numa versão mais rápida e barata, o que é uma prática padrão para o desenvolvimento interno de produtos.
No entanto, a Anthropic sustenta que, quando isto é feito por um concorrente sem permissão, constitui uma violação dos termos e um roubo de inteligência proprietária. Ao alimentar o Claude com milhões de comandos complexos e colher as suas respostas, os laboratórios chineses contornaram efetivamente os imensos custos de computação e curadoria de dados necessários para treinar um modelo de fronteira (frontier model) do zero.
"Estes laboratórios não estão apenas a aprender connosco; estão efetivamente a fotocopiar os resultados de milhares de milhões de dólares em I&D", afirmou um porta-voz da Anthropic. O relatório destaca que as consultas não eram interações típicas de utilizadores. Em vez disso, eram estruturalmente distintas — envolvendo frequentemente desafios de codificação complexos ou pedidos de raciocínio passo a passo que são ideais para conjuntos de dados de ajuste fino (Fine-Tuning Data).
A Anthropic enquadrou este incidente não apenas como uma disputa comercial, mas como um imperativo de segurança nacional (national security). A empresa argumenta que a destilação ilícita representa um perigo único: ela remove as salvaguardas de segurança incorporadas no modelo original.
Quando um modelo como o Claude é destilado, o modelo "aluno" aprende as capacidades (como escrever malware ou sintetizar produtos químicos) sem necessariamente aprender as recusas de segurança ou os alinhamentos morais que a Anthropic gasta meses a reforçar. Isto resulta em "capacidades desprotegidas" que podem ser implementadas por regimes autoritários ou maus atores sem as restrições integradas do modelo de origem.
Implicações da Destilação Ilícita
A deteção desta campanha baseou-se em análise comportamental avançada. A equipa de "Confiança e Segurança" da Anthropic notou anomalias nos padrões de tráfego que os utilizadores humanos raramente exibem, tais como consultas distintas 24 horas por dia, 7 dias por semana sem tempo de inatividade, e uma alta densidade de comandos do tipo "jailbreak" concebidos para testar os limites do modelo.
Ao correlacionar endereços IP e métodos de pagamento associados aos serviços de proxy, a Anthropic conseguiu agrupar as 24.000 contas em clusters distintos atribuídos às três empresas específicas. Desde então, a empresa suspendeu estas contas e implementou protocolos mais rigorosos de "Conheça o Seu Cliente" (Know Your Customer - KYC) para acesso à API, embora reconheçam que a natureza de "jogo do gato e do rato" das redes proxy torna difícil a prevenção permanente.
Esta acusação surge semanas após a OpenAI ter lançado acusações semelhantes, embora menos detalhadas, contra concorrentes chineses, sugerindo um padrão sistémico em toda a indústria. O atalho da "destilação" está a tornar-se o método principal para os concorrentes atrasados fecharem a lacuna com os modelos de fronteira dos EUA.
Para a comunidade de IA, este incidente levanta questões críticas sobre a aplicabilidade dos Termos de Serviço numa economia digital global. À medida que os modelos se tornam mais poderosos, o valor da sua saída aumenta, tornando-os alvos lucrativos para extração. Podemos esperar que isto acelere a pressão por ação legislativa, levando potencialmente a novas regulamentações nos EUA que tratem os pesos e as saídas dos modelos como mercadorias controladas, sujeitas ao mesmo escrutínio rigoroso que os GPUs de ponta atualmente restritos para exportação para a China.
À medida que a poeira assenta, o foco volta-se para como a DeepSeek, Moonshot e MiniMax irão responder. Embora historicamente tenham permanecido em silêncio perante tais acusações, a especificidade dos dados da Anthropic deixa pouco espaço para ambiguidade quanto à origem dos ataques.