
В условиях значительной эскалации конфликта в сфере интеллектуальной собственности между американскими и китайскими лабораториями искусственного интеллекта, компания Anthropic публично обвинила три ведущие китайские фирмы — DeepSeek, Moonshot AI и MiniMax — в организации масштабной скоординированной кампании по выкачиванию возможностей из её флагманской модели Claude. Стартап по безопасности ИИ из Сан-Франциско характеризует эту операцию как «кражу в промышленном масштабе» (industrial-scale theft), включающую более 16 миллионов несанкционированных обменов данными, сгенерированных через сложную сеть поддельных аккаунтов.
Это разоблачение знаменует собой одно из самых конкретных и количественно подтвержденных обвинений в краже данных ИИ на сегодняшний день. По данным Anthropic, операция не была простым случайным сбором данных (scraping), а представляла собой преднамеренную «атаку методом дистилляции» (distillation attack), предназначенную для обучения конкурирующих моделей с использованием передовых логических и кодинговых результатов Claude. Инцидент подчеркивает растущую напряженность в глобальной гонке вооружений ИИ, где грань между конкурентными исследованиями и незаконным извлечением данных становится всё более нестабильной.
Команда безопасности Anthropic выявила разветвленную инфраструктуру, состоящую примерно из 24 000 мошеннических аккаунтов, использовавшихся для обхода условий обслуживания компании и региональных ограничений доступа. Поскольку Claude официально не доступен в Китае, обвиняемые фирмы, как утверждается, использовали коммерческие прокси-сервисы для маскировки своего происхождения, создавая то, что инженеры Anthropic назвали «кластерами Гидра (Hydra clusters)» — сети аккаунтов, распределяющие трафик между сторонними API для уклонения от обнаружения.
Масштаб операции был сильно смещен в сторону MiniMax, «единорога» из Шанхая, который, по утверждению Anthropic, был ответственен за львиную долю незаконного трафика. В то время как DeepSeek в последнее время привлекла значительное внимание СМИ своими эффективными моделями с открытым исходным кодом, именно MiniMax, как утверждается, провела самую агрессивную кампанию по извлечению данных в данном случае.
Расшифровка предполагаемой деятельности по дистилляции
| Обвиняемая фирма | Оценочное количество запросов | Основные целевые возможности | Масштаб операции |
|---|---|---|---|
| MiniMax | > 13 000 000 | Агентное мышление, использование инструментов | Массивный / Промышленный |
| Moonshot AI | > 3 400 000 | Обработка длинного контекста, программирование | Значительный |
| DeepSeek | > 150 000 | Цепочка рассуждений (Chain-of-thought) | Целевой / Стратегический |
Данные основаны на отчете Anthropic об анализе угроз, опубликованном в феврале 2026 года.
Разрыв в объемах предполагает наличие различных стратегических целей у каждой фирмы. Массивный объем MiniMax указывает на широкую попытку воспроизвести общие возможности Claude, особенно в «агентных» задачах, где модель действует автономно. Напротив, меньший след DeepSeek, по-видимому, был высокоточным и фокусировался на конкретных высокоценных цепочках рассуждений для тонкой настройки их существующих архитектур.
В основе этого спора лежит практика «дистилляции знаний» (knowledge distillation). В легитимном контексте разработчики используют большую модель-«учитель» (teacher) для обучения более компактной и эффективной модели-«ученика» (student). Этот процесс сжимает знания массивной системы в более быструю и дешевую версию, что является стандартной практикой для внутренней разработки продуктов.
Однако Anthropic утверждает, что когда это делается конкурентом без разрешения, это является нарушением условий и кражей проприетарного интеллекта. Скармливая Claude миллионы сложных промптов и собирая его ответы, китайские лаборатории фактически обошли огромные затраты на вычисления и кураторство данных, необходимые для обучения передовой модели (frontier model) с нуля.
«Эти лаборатории не просто учатся у нас; они фактически ксерокопируют результаты НИОКР стоимостью в миллиарды долларов», — заявил представитель Anthropic. В отчете подчеркивается, что запросы не были типичными взаимодействиями пользователей. Вместо этого они были структурно специфичными — часто включали сложные задачи по программированию или запросы на пошаговые рассуждения, которые идеально подходят для обучающих наборов данных (Данные для тонкой настройки / Fine-Tuning Data).
Anthropic представила этот инцидент не просто как коммерческий спор, но и как императив национальной безопасности (national security). Компания утверждает, что незаконная дистилляция представляет собой уникальную опасность: она лишает модель защитных барьеров (safety guardrails), встроенных в оригинал.
Когда такая модель, как Claude, подвергается дистилляции, модель-«ученик» усваивает возможности (как писать вредоносное ПО, как синтезировать химикаты) без обязательного усвоения отказов по соображениям безопасности или моральных принципов, на укрепление которых Anthropic тратит месяцы. Это приводит к появлению «незащищенных возможностей», которые могут быть развернуты авторитарными режимами или злоумышленниками без встроенных ограничений исходной модели.
Последствия незаконной дистилляции
Обнаружение этой кампании опиралось на продвинутый поведенческий анализ. Команда Trust and Safety компании Anthropic заметила аномалии в паттернах трафика, которые редко проявляются у людей, такие как круглосуточные непрерывные запросы без пауз и высокая плотность промптов в стиле «джейлбрейк» (jailbreak-style), предназначенных для проверки пределов модели.
Сопоставив IP-адреса и способы оплаты, связанные с прокси-сервисами, Anthropic смогла сгруппировать 24 000 аккаунтов в отдельные кластеры, приписываемые трем конкретным фирмам. С тех пор компания заблокировала эти аккаунты и внедрила более строгие протоколы «Знай своего клиента» (KYC) для доступа к API, хотя они признают, что природа прокси-сетей, напоминающая игру «бей крота» (whack-a-mole), затрудняет полную блокировку.
Это обвинение появилось спустя несколько недель после того, как OpenAI выдвинула аналогичные, хотя и менее детализированные обвинения против китайских конкурентов, что указывает на системный характер проблемы в отрасли. Метод дистилляции становится основным способом для отстающих конкурентов сократить разрыв с американскими передовыми моделями.
Для ИИ-сообщества этот инцидент поднимает критические вопросы о возможности обеспечения соблюдения Условий обслуживания в глобальной цифровой экономике. По мере того как модели становятся мощнее, ценность их результатов возрастает, что делает их прибыльными мишенями для извлечения. Можно ожидать, что это ускорит продвижение законодательных мер, которые могут привести к новым правилам США, рассматривающим веса моделей и их выходные данные как контролируемые товары, подлежащие такому же строгому контролю, как и высокопроизводительные графические процессоры (GPU), экспорт которых в Китай в настоящее время ограничен.
Когда пыль уляжется, всё внимание будет приковано к тому, как ответят DeepSeek, Moonshot и MiniMax. Хотя исторически они хранили молчание в ответ на подобные обвинения, конкретика данных Anthropic оставляет мало места для двусмысленности относительно происхождения атак.