
В решающий момент для отношений между Кремниевой долиной (Silicon Valley) и Вашингтоном генеральный директор Anthropic Дарио Амодеи (Dario Amodei) официально отверг ультиматум Министерства обороны США. Менее чем за 24 часа до крайнего срока, истекающего в пятницу, 27 февраля 2026 года, конфликт перерос в противостояние с высокими ставками, затрагивающее национальную безопасность, этический искусственный интеллект (AI) и государственный контракт на сумму 200 миллионов долларов.
Спор сосредоточен вокруг директивы, изданной министром обороны Питом Хегсетом (Pete Hegseth) в начале этой недели, требующей от Anthropic предоставить Пентагону «неограниченную» версию своей флагманской модели Claude. Военные запрашивают вариант Большой языковой модели (Large Language Model, LLM), лишенный защитных барьеров безопасности, для помощи в принятии тактических решений и проведения секретных логистических операций. Отказ Амодеи, изложенный в письме, опубликованном в четверг, создает почву для потенциального юридического и нормативного столкновения, которое может переопределить принципы сотрудничества частных ИИ-компаний с оборонным сектором.
В Creati.ai мы внимательно следим за расхождением между коммерческими стандартами безопасности ИИ и военными оперативными требованиями. Это событие стало первым случаем, когда крупная лаборатория ИИ открыто бросила вызов прямому оперативному мандату Пентагона под угрозой внесения в черный список как источника риска для безопасности.
Суть разногласий заключается в специфических оперативных потребностях американских военных в противовес фундаментальной архитектуре продуктов Anthropic. Согласно внутренним документам, просочившимся в сеть в начале этой недели, Пентагон утверждает, что стандартная коммерческая версия Claude «оперативно непригодна» для оборонных сценариев с высокими ставками из-за встроенных механизмов отказа.
Военные чиновники выразили разочарование тем, что протоколы безопасности, предназначенные для предотвращения языка вражды, создания химического оружия или политической предвзятости, мешают способности ИИ обрабатывать необработанные разведданные и генерировать тактические варианты, которые могут включать применение смертоносной силы или агрессивные стратегии кибервойны. Ультиматум министра Хегсета был ясен: убрать эти «гражданские ограничения» для экземпляра Claude военного класса или столкнуться с немедленным расторжением контракта.
Требование предусматривает индивидуальное развертывание модели, в которой «Конституция» — набор принципов, управляющих поведением ИИ, — заменяется узкоспециализированной структурой, которая ставит успех миссии выше снижения вреда. Пентагон настаивает на том, что без этих модификаций текущий контракт на 200 миллионов долларов на оптимизацию логистики и синтез разведданных является пустой тратой денег налогоплательщиков.
Ответ Дарио Амодеи был недвусмысленным. В своем заявлении генеральный директор объявил, что Anthropic «не может с чистой совестью согласиться на требования, которые фундаментально компрометируют созданную нами архитектуру безопасности».
Амодеи утверждал, что выполнение просьбы Пентагона было бы не просто изменением политики, а техническим демонтажем подхода компании к «Конституционному ИИ (Constitutional AI)». Он подчеркнул, что создание «неуправляемой» версии Claude без фильтров безопасности представляет собой экзистенциальный риск. Если такая модель попадет в руки противников или будет подвергнута обратной разработке, она может стать шаблоном для автоматизированных кибератак или синтеза биологического оружия без встроенных отказов, которые в настоящее время защищают общество.
С технической точки зрения Anthropic утверждает, что безопасность не является дополнительной функцией, которую можно отключить, как выключатель света. Она закладывается в веса модели посредством обучения с подкреплением на основе обратной связи от человека (Reinforcement Learning from Human Feedback, RLHF) и рекурсивного моделирования вознаграждения.
«Выполнение запроса Министерства обороны по удалению всех защитных барьеров фактически означает запрос совершенно другого продукта — того, который мы не создавали и не тестировали», — написал Амодеи. Далее он предупредил, что несогласованный ИИ даже в руках американских военных несет непредсказуемые риски, связанные с галлюцинациями и эскалацией в сценариях конфликтов.
Финансовые и репутационные ставки огромны. Министр Хегсет пригрозил не только аннулировать существующий контракт, но и официально признать Anthropic «риском цепочки поставок (supply chain risk)».
Это обозначение является «крайней мерой» в государственном заказе. Оно фактически запретит Anthropic участвовать в будущих федеральных контрактах во всех ведомствах, а не только в Министерстве обороны. Более того, это может охладить отношения с корпоративными клиентами, которые соблюдают строгие стандарты соответствия, требующие использования утвержденных правительством поставщиков.
В таблице ниже приведены основные расхождения между текущей операционной моделью Anthropic и конкретными требованиями Пентагона к крайнему сроку в пятницу.
Таблица: Точки конфликта между Anthropic и Пентагоном
| Характеристика/Политика | Стандарт Конституционного ИИ Anthropic | Требование Пентагона о «неограниченном доступе» |
|---|---|---|
| Защитные барьеры | Жестко закодированные отказы на смертоносные/вредные запросы | Удаление всех механизмов отказа для данных миссии |
| Согласование модели | Согласовано с общечеловеческими ценностями и безопасностью | Строго согласовано с целями миссии и цепочкой командования |
| Среда развертывания | Контролируемая «песочница» с мониторингом | Изолированная (air-gapped), но функционально автономная среда |
| Позиция по ответственности | Разработчик несет ответственность за безопасность результатов | Правительство берет на себя ответственность; требует необработанные возможности |
Исход этого противостояния, вероятно, послужит ориентиром для всей индустрии ИИ. Конкуренты, такие как OpenAI и Google DeepMind, внимательно наблюдают за ситуацией. Если Пентагон успешно заставит Anthropic капитулировать или сурово накажет их за отказ, это создаст прецедент, согласно которому «Национальная безопасность» имеет приоритет над частными обязательствами по безопасности.
И наоборот, если Anthropic сохранит свою позицию и переживет политические последствия, это укрепит роль частных лабораторий как высших арбитров безопасности ИИ, независимых от требований государства. Это поднимает сложные вопросы суверенитета и контроля над технологиями двойного назначения. К 2026 году ИИ стал так же важен, как ядерная физика в XX веке; однако, в отличие от Манхэттенского проекта, разработки остаются в основном в частных руках.
Отраслевые аналитики предполагают, что если статус «риска цепочки поставок» будет применен, Anthropic может быть вынуждена полностью переключиться на коммерческий сектор, что потенциально замедлит темпы ее исследований из-за потери прибыльного государственного финансирования. Альтернативно это может спровоцировать судебную тяжбу, которая дойдет до Верховного суда, по вопросу о праве правительства принуждать частные организации к определенным высказываниям (генерации кода).
По мере приближения крайнего срока в пятницу в штаб-квартире Anthropic в Сан-Франциско царит тишина. Отказ на столе, и теперь мяч на стороне Пентагона.
Для читателей Creati.ai это событие подчеркивает трения между теоретическими идеалами безопасности ИИ и суровыми реалиями геополитической конкуренции. Останется ли Claude «полезным, честным и безвредным» помощником или станет военизированным инструментом государства, вероятно, решится в ближайшие дни. Решение, принятое 27 февраля 2026 года, повлияет не только на финансовые показатели одной компании, но и определит этические границы военного развертывания ИИ на десятилетие вперед.