В конце февраля 2026 года разразился крупный скандал вокруг сотрудничества ведущих компаний в области искусственного интеллекта с Министерством обороны США. Компания OpenAI объявила о заключении соглашения с Пентагоном о внедрении своих продвинутых ИИ-систем в засекреченных средах. Это произошло менее чем через сутки после того, как администрация президента Дональда Трампа объявила конкурента OpenAI — компанию Anthropic — «риском для цепочки поставок национальной безопасности» и предписала федеральным агентствам прекратить использование её технологий.
Ключевым камнем преткновения стала формулировка контракта. OpenAI заявила, что установила «красные линии»: запрет на массовую слежку за гражданами США, на самостоятельное управление автономным оружием и на автоматическое принятие высокорисковых решений, таких как социальный рейтинг. Однако фактический язык соглашения, представленный компанией, гласит: «Министерство обороны может использовать ИИ-систему для всех законных целей, в соответствии с применимым законодательством, операционными требованиями и устоявшимися протоколами безопасности и надзора». Именно эту формулировку ранее отказалась подписать Anthropic, сочтя её недостаточной для защиты этических принципов.
Эксперты отмечают, что опора на понятие «законности» в контексте национальной безопасности создаёт уязвимость. Определение того, что является законным, часто зависит от внутренних, иногда засекреченных, трактовок правительства. Запрет на автономное оружие в контракте OpenAI применяется только в тех случаях, где «закон, регулирование или политика министерства уже требуют человеческого контроля», что оставляет пространство для манёвра. Аналогично, запрет на «неограниченный мониторинг» частной информации граждан США оставляет возможность для «ограниченных» форм массовой слежки, опирающихся на существующие правовые рамки, такие как Исполнительный указ 12333.
Генеральный директор OpenAI Сэм Алтман в ходе сессии вопросов и ответов пояснил позицию компании. Он заявил, что OpenAI разорвёт партнёрство, если от неё потребуют сделать что-то «неконституционное или незаконное». Он также отметил, что Anthropic, судя по всему, хотела больше операционного контроля, прописанного в контракте, в то время как OpenAI больше полагается на технические средства защиты и существующие законы.
Реакция общественности и рынка была мгновенной и резкой. Было запущено движение «QuitGPT», призывающее к бойкоту OpenAI. По заявлениям организаторов, более 1,5 миллиона человек предприняли действия: отменили подписки, делились постами о бойкоте или регистрировались на сайте кампании. Пользователи массово стали переходить на продукт Anthropic — Claude, который возглавил рейтинг самых скачиваемых бесплатных приложений в App Store США. Поп-звезда Кэти Перри публично поддержала Claude в соцсетях, а у офисов OpenAI в Сан-Франциско появились граффити с критикой.
Этот инцидент стал кульминацией более раннего конфликта между Anthropic и Пентагоном. В мае-июне 2025 года Anthropic отказалась предоставить военным неограниченный доступ к своим ИИ-моделям, сославшись на две этические «красные линии»: запрет на массовую слежку и на автономное оружие, принимающее решения об уничтожении без явного человеческого контроля. После этого администрация Трампа инициировала процедуру объявления компании «риском для цепочки поставок», что вызвало протест сотен сотрудников технологических компаний, включая самих сотрудников OpenAI, подписавших открытое письмо в поддержку Anthropic.
Таким образом, текущая ситуация обнажила глубокий раскол в подходе к этике ИИ. С одной стороны — стратегия Anthropic, настаивающей на чётких, прописанных в контракте запретах. С другой — подход OpenAI, который делает ставку на технические ограничения (например, развёртывание только в облаке, что затрудняет прямое боевое применение) и существующие правовые рамки. Исход этого противостояния и реакция рынка, выраженная в миграции пользователей, могут задать новые стандарты для будущих государственных контрактов в сфере искусственного интеллекта.