
Срок истек, и пропасть между ориентированной на безопасность лабораторией ИИ Кремниевой долины и вооруженными силами США превратилась в бездну. По состоянию на утро субботы компания Anthropic — создатель моделей ИИ Claude — официально отвергла ультиматуму министра обороны Пита Хегсета (Pete Hegseth) о предоставлении военным неограниченного доступа к своим технологиям. В ответ Пентагон оперативно присвоил компании статус «риск для цепочки поставок» (supply chain risk), фактически разорвав контракт на 200 миллионов долларов и подготовив почву для беспрецедентного юридического и этического противостояния по поводу превращения искусственного интеллекта в оружие.
Это столкновение знаменует собой исторический поворотный момент для индустрии ИИ. Впервые крупный разработчик ИИ рискнул своими государственными доходами и коммерческим положением, чтобы отстоять этические «красные линии» в отношении автономного оружия и массовой слежки, напрямую бросив вызов стремлению администрации Трампа устранить то, что она называет «woke» (прогрессистскими) ограничениями на военные технологии.
Кризис достиг апогея в пятницу, 27 февраля — в срок, установленный министром Хегсетом для капитуляции Anthropic. Ранее на той же неделе Хегсет вызвал генерального директора Anthropic Дарио Амодеи (Dario Amodei) в Пентагон, передав жесткое послание: либо уберите «барьеры» (guardrails), мешающие Claude использоваться в цепочках автономного поражения целей и для внутренней слежки, либо столкнитесь со всей мощью федерального правительства.
Согласно источникам, близким к переговорам, Пентагон потребовал «беспрепятственного доступа» к возможностям Claude, утверждая, что в эпоху конкуренции великих держав вооруженные силы США не могут быть скованы политикой корпоративной этики. Хегсет, пообещавший искоренить «культуру woke» в вооруженных силах, специально нацелился на систему «Конституционного ИИ» (Constitutional AI) компании Anthropic — систему безопасности, предназначенную для предотвращения генерации моделью вредоносного, незаконного или неэтичного контента, — назвав ее угрозой национальной безопасности.
В заявлении, опубликованном незадолго до истечения срока, Амодеи остался непреклонен. «Мы не можем с чистой совестью согласиться на эти требования», — написал гендиректор. Он подтвердил, что, хотя Anthropic поддерживает законные оборонные военные приложения, компания проводит жесткую черту в двух конкретных сценариях использования: массовая внутренняя слежка за гражданами США и полностью автономные системы целеуказания, где ИИ принимает решения о нанесении ударов без участия человека.
Последствия этого отказа начали проявляться поздно вечером в пятницу. Министерство обороны (DoD) инициировало процедуру классификации Anthropic как «риска для цепочки поставок». Это обозначение гораздо более разрушительно, чем простая отмена контракта; оно фактически функционирует как черный список.
Последствия статуса «риск для цепочки поставок»:
Возможно, самым пугающим для технологической индустрии стала угроза Хегсета задействовать Закон об оборонном производстве (Defense Production Act, DPA). Первоначально принятый во время Корейской войны, DPA наделяет президента широкими полномочиями заставлять частные компании отдавать приоритет государственным контрактам и контролировать распределение критически важных материалов. Юристы предупреждают, что использование DPA для захвата интеллектуальной собственности — в частности, весов проприетарной модели ИИ — или для принуждения компании изменить свой код вопреки протоколам безопасности стало бы беспрецедентным расширением исполнительной власти.
Трения между двумя лагерями были ощутимы во время встречи во вторник, которая предшествовала ультиматуму. Источники описали встречу как «корректную, но холодную», при этом Хегсет обвинил Anthropic в том, что она ставит абстрактную этику Кремниевой долины выше жизней американцев.
Сообщается, что Хегсет противопоставил нежелание Anthropic сотрудничеству других ИИ-фирм. Он прямо упомянул xAI, компанию Илона Маска в области искусственного интеллекта, которая уже согласилась на пункт о «законном использовании», не накладывающий никаких конкретных технических ограничений на военное применение. Аргументация министра обороны представляет меры по безопасности ИИ (AI safety) не как осмотрительность, а как «идеологические ограничения», ослабляющие американского бойца.
Для Амодеи отказ соответствует основной миссии Anthropic. Компания была создана бывшими исследователями OpenAI именно для того, чтобы избежать компромиссов в области безопасности, которые, по их мнению, преследовали индустрию. Уступка требованию Пентагона о возможности автономного наведения на цели стала бы предательством основной структуры компании — «Траста долгосрочной выгоды» (Long-Term Benefit Trust).
Спор сосредоточен вокруг двух принципиально разных взглядов на пользу и риски ИИ. В таблице ниже приведены конкретные пункты разногласий, которые привели к расторжению контракта.
Таблица 1: Требования Пентагона против этических границ Anthropic
| Предмет спора | Требование Пентагона (доктрина Хегсета) | Позиция Anthropic (Конституционный ИИ) |
|---|---|---|
| Автономное оружие | Полная интеграция ИИ в «цепочки поражения» для повышения летальности и скорости принятия решений. | Строгий запрет на принятие ИИ летальных решений о целеуказании без значимого контроля со стороны человека. |
| Внутренняя слежка | Использование ИИ для анализа массивов данных в целях обеспечения внутренней безопасности и обнаружения угроз. | Отказ позволять использовать модели для массового мониторинга граждан США или отслеживания инакомыслия. |
| Протоколы безопасности | Удаление «идеологических» фильтров (называемых «woke AI»), ограничивающих военную полезность. | Сохранение барьеров безопасности для предотвращения злоупотреблений, предвзятости и нарушения прав человека. |
| Контрактный контроль | Неограниченная лицензия на использование модели для «всех законных целей», определенных исполнительной властью. | Условия обслуживания, явно запрещающие определенные категории высокого риска независимо от их законности. |
Непокорность Anthropic оставляет ее в изоляции среди «Большой четверки» ИИ-лабораторий в отношениях с оборонным сектором.
Эта изоляция несет серьезный финансовый риск. Потеря контракта на 200 миллионов долларов значительна, но репутационный ущерб в государственном секторе может стоить миллиарды будущих доходов. Однако в коммерческом секторе этот шаг может укрепить бренд Anthropic как «заслуживающей доверия» альтернативы ИИ для компаний, опасающихся чрезмерного государственного вмешательства и беспокоящихся о конфиденциальности данных.
Юридическая битва, скорее всего, только начинается. Если Пентагон перейдет к принудительному исполнению DPA, чтобы захватить веса моделей Anthropic или заставить изменить код, дело почти наверняка окажется в Верховном суде. Ключевой юридический вопрос будет заключаться в том, является ли код формой принудительного высказывания и может ли правительство заставить частную организацию создавать оружие против ее воли.
На данный момент сигнал из Пентагона ясен: в гонке за доминирование в области ИИ тормоза безопасности считаются дефектом, а не преимуществом. И для Anthropic цена ее принципов обещает стать очень высокой.
Ближайшие недели определят, последуют ли другие технологические гиганты «анти-woke» военной доктрине Хегсета или же позиция Anthropic подтолкнет к более широкому сопротивлению среди исследователей ИИ, которые опасаются, что их творения милитаризуются быстрее, чем их можно будет взять под контроль.