Компания Anthropic подала федеральный иск против Министерства обороны США 9 марта 2026 года, оспаривая беспрецедентное решение Пентагона признать её «риском для цепочки поставок». Этот шаг стал кульминацией конфликта, начавшегося в конце февраля, когда переговоры о применении ИИ-системы Claude в военных целях зашли в тупик из-за этических разногласий.
Суть конфликта заключается в принципиально разных подходах к использованию искусственного интеллекта. Anthropic установила два жёстких ограничения: запрет на использование её технологий для массовой слежки за гражданами США и отказ от интеграции в полностью автономные системы вооружения без человеческого контроля при целеуказании и применении силы. В ответ министр обороны Пит Хегсет заявил, что Пентагон должен иметь доступ к ИИ для «любых законных целей».
Не сумев договориться, Пентагон 5 марта присвоил Anthropic статус риска для цепочки поставок. Этот статус, традиционно применяемый к иностранным компаниям, связанным с государствами-противниками, обязывает всех подрядчиков Минобороны подтверждать, что они не используют продукты Anthropic, что фактически блокирует доступ военных к Claude.
В своём иске, поданном в федеральный суд Сан-Франциско, Anthropic называет действия властей «беспрецедентными и противозаконными», утверждая, что они нарушают конституционные гарантии свободы слова, поскольку правительство «не может использовать свою огромную власть для наказания компании за защищённую речь» — под которой подразумеваются её этические принципы.
Последствия для отрасли уже ощутимы. Конфликт вызвал волну беспокойства среди технологических стартапов, рассматривающих сотрудничество с оборонным ведомством. В отличие от традиционных подрядчиков, таких как General Motors, ИИ-компании с потребительскими продуктами (как Anthropic с Claude или OpenAI с ChatGPT) сталкиваются с немедленными репутационными рисками. Пример OpenAI, которая заключила контракт с Пентагоном, но столкнулась с всплеском удалений ChatGPT на 295% из-за негативной реакции пользователей, лишь усилил эти опасения.
Эксперты отмечают, что ситуация создаёт новую парадигму рисков. Стартапам теперь приходится учитывать не только бюрократические сложности госзаказов, но и непредсказуемость общественного мнения, возможность одностороннего пересмотра условий контракта и этическую ответственность за создание технологий, потенциально применяемых в летальных операциях. Это происходит на фоне роста бюджетов Пентагона на ИИ, которые остаются мощным финансовым стимулом для инновационных компаний.
Исход этого судебного разбирательства может установить важный прецедент, определяющий баланс между национальной безопасностью, инновациями и корпоративной этикой. Он покажет, смогут ли технологические компании отстаивать свои принципы перед лицом государственного аппарата или будут вынуждены либо полностью принимать условия военных, либо уходить с этого рынка.