
Министр обороны Пит Хегсет (Pete Hegseth) вызвал сегодня генерального директора Anthropic Дарио Амодеи (Dario Amodei) в Пентагон для серьезного противостояния, что знаменует собой потенциальную точку разрыва в отношениях между американскими военными и лабораторией, ориентированной на безопасность ИИ. Источники, знакомые с вопросом, описывают запланированную встречу как «напряженное столкновение» и «решающий момент» в отношении использования военными флагманской модели ИИ от Anthropic — Claude.
Вызов последовал за месяцами нарастающих трений между Министерством обороны (DoD) и Anthropic из-за отказа последней снять определенные защитные барьеры. В то время как Пентагон активно стремится интегрировать передовой ИИ (frontier AI) в свои «вооруженные силы, ориентированные в первую очередь на ИИ», Anthropic остается непоколебимой в запрете на использование своей технологии для массовой слежки за американцами и разработки полностью автономного летального оружия.
Высокопоставленные представители министерства обороны, по сообщениям, потеряли терпение из-за того, что они считают корпоративной идеологией, препятствующей национальной безопасности. Один из чиновников на условиях анонимности охарактеризовал встречу изданию Axios как «не дружескую встречу», добавив: «Это встреча из разряда „либо делай, либо уходи“». Министерство обороны угрожает применить «ядерный вариант» в сфере государственных контрактов: объявить Anthropic «риском для цепочки поставок».
Суть спора заключается в угрозе Пентагона официально признать Anthropic риском для цепочки поставок (supply chain risk). Это обозначение гораздо более разрушительно, чем просто отмена одного контракта. В случае принятия оно инициирует обязательную чистку технологий Anthropic во всей оборонно-промышленной базе.
В настоящее время Claude является единственной передовой моделью, развернутой в определенных секретных сетях, глубоко интегрированной через сторонних партнеров, таких как Palantir и Amazon Web Services (AWS). Метка «риск для цепочки поставок» по закону заставит этих генеральных подрядчиков разорвать связи с Anthropic, чтобы сохранить свое положение перед федеральным правительством.
«Это будет огромной проблемой — распутать всё это, и мы позаботимся о том, чтобы они заплатили цену за то, что вынудили нас пойти на такой шаг», — заявил высокопоставленный чиновник Пентагона. Такой шаг фактически внесет Anthropic в черный список в государственном секторе, поставив под угрозу ее пилотный контракт на 200 миллионов долларов и закрыв прибыльный правительственный рынок, в то время как конкуренты, такие как OpenAI, Google и xAI, поспешат занять пустую нишу.
Напряженность, по сообщениям, достигла предела после военной операции в Венесуэле 3 января 2026 года, которая привела к поимке бывшего президента Николаса Мадуро. Отчеты указывают на то, что модель Claude использовалась во время операции через платформу Gotham компании Palantir для анализа разведывательных данных в реальном времени.
После рейда Anthropic якобы запросила у Palantir подробности того, как использовалась ее модель, ссылаясь на проверку соблюдения Политики использования. Этот запрос привел в ярость руководство Пентагона, которое расценило это как попытку частной компании провести аудит секретной военной операции.
В ответ министр Хегсет издал 9 января меморандум, призывающий всех поставщиков ИИ убрать «нестандартные ограничения» из своих условий обслуживания, требуя, чтобы модели были доступны для «всех законных целей». В то время как Anthropic утверждает, что ее политика является важным этическим барьером, Министерство обороны рассматривает ее как «недемократическое» препятствие законным приказам, отдаваемым главнокомандующим.
Заместитель министра Эмиль Майкл публично раскритиковал позицию Anthropic в начале этой недели, утверждая, что технологические компании не должны подменять собой избранное правительство в вопросах политики. «Конгресс пишет законопроекты, президент их подписывает, ведомства пишут правила, а люди их соблюдают», — сказал Майкл журналистам. «Чего мы не допустим, так это того, чтобы какая-либо одна компания диктовала новый набор политик сверх того, что принял Конгресс».
Это противостояние подчеркивает расширяющийся разрыв в Кремниевой долине. Пока Anthropic цепляется за свои стандарты безопасности «Конституционного ИИ» (Constitutional AI), ее конкуренты быстро подстраиваются под новый стандарт Пентагона «все законные цели». Отчеты предполагают, что xAI и Google близки к соглашениям, которые предоставят военным неограниченный доступ, который они требуют, оказывая огромное давление на Амодеи, заставляя его капитулировать или столкнуться с изоляцией.
В следующей таблице изложены текущие позиции крупнейших лабораторий ИИ в отношении интеграции с военными:
Позиция лабораторий ИИ по военной интеграции
| Название лаборатории | Основная модель | Позиция по военной политике | Текущий статус в DoD |
|---|---|---|---|
| Anthropic | Claude | Ограничительная: Запрещает автономного оружия и внутреннюю слежку. | На рассмотрении: Грозит метка «Риск для цепочки поставок». |
| OpenAI | GPT-4/5 | Умеренная: Удален запрет на «военные действия и войну»; разрешено использование в целях «национальной безопасности». | Активен: Развернуто на платформе GenAI.mil. |
| xAI | Grok | Либеральная: Открыты для «всех законных целей» без идеологических ограничений. | Переговоры: Подписаны предварительные соглашения с DoD. |
| Gemini | Либеральная: Соответствует «Стратегии ускорения ИИ» DoD. | Расширение: Углубление интеграции через облачные контракты. |
Для Дарио Амодеи это решение имеет экзистенциальное значение для миссии Anthropic. Компания была основана на принципах безопасности и интерпретируемости ИИ с «Конституцией», разработанной для предотвращения злоупотреблений. Капитуляция перед требованием Пентагона разрешить разработку автономного вооружения фундаментально нарушила бы учредительный устав компании и потенциально оттолкнула бы ее персонал, ориентированный на безопасность.
Однако альтернатива — попадание в черный список крупнейшего в мире заказчика и получение клейма угрозы безопасности — может серьезно подорвать доходы и влияние компании. Пентагон ясно дал понять: им нужны инструменты, которые выполняют приказы, а не инструменты, которые задают моральные вопросы.
Когда Амодеи сегодня войдет в Пентагон, он столкнется с ультиматумом, который определит будущее военного ИИ. Пойдет ли Anthropic на компромисс со своей этикой ради выживания или станет первой жертвой новой жесткой стратегии Пентагона в области ИИ? Индустрия замерла в ожидании.