Администрация президента США Дональда Трампа в судебных документах, поданных во вторник, 17 марта 2026 года, подтвердила законность решения Пентагона о внесении компании Anthropic, разработчика ИИ-ассистента Claude, в «черный список» как угрозы для цепочек поставок в сфере национальной безопасности. Это стало ответом на два федеральных иска, которые Anthropic инициировала днем ранее, 16 марта.
Ключевой причиной конфликта стал отказ Anthropic снять внутренние ограничения, запрещающие использование ее технологий в автономном оружии и для массовой внутренней слежки. Переговоры между компанией и Министерством обороны США зашли в тупик после месяцев обсуждений. 3 марта министр обороны Пит Хегсет официально классифицировал Anthropic как риск для цепочек поставок в области национальной безопасности.
В своей позиции правительство утверждает, что условия обслуживания ИИ-технологий Anthropic стали «неприемлемыми для исполнительной власти» по соображениям национальной безопасности. В документах отмечается, что действия властей были продиктованы исключительно этими соображениями, а не желанием наказать компанию за ее взгляды на безопасность ИИ. «Правительство также заявило, что в ходе переговоров общее отношение Anthropic заставило их усомниться в том, что компания подходит для работы с Министерством обороны», — говорится в материалах дела.
Особую озабоченность Пентагона вызывает потенциальная уязвимость: власти опасаются, что компания может отключить или изменить поведение своих систем в разгар военного конфликта, если сочтет, что ее технологии используются не по правилам. В ответ на это Anthropic заявляет, что ее ИИ еще недостаточно безопасен для применения в автономном оружии, а массовая слежка противоречит принципам компании.
Администрация Трампа также оспорила аргумент Anthropic о нарушении Первой поправки (свобода слова), назвав его натянутым и заявив, что он вряд ли выдержит судебную проверку. По мнению правительства, спор касается контрактных переговоров и поведения компании (отказа снять ограничения), а не защищенной речи.
Компания Microsoft, которая использует Claude и сама является поставщиком для военных, выступила на стороне Anthropic, подав amicus curiae (заключение третьей стороны). В нем корпорация предупредила, что решение Пентагона может нанести ущерб всей экосистеме искусственного интеллекта в США. «Сейчас не время ставить под угрозу саму экосистему ИИ, которую администрация помогала развивать», — заявили в Microsoft.
Anthropic подала основной иск в федеральный суд Калифорнии 9 марта, охарактеризовав решение как «беспрецедентное и незаконное» и нарушающее права на свободу слова и надлежащую правовую процедуру. Второй иск был подан в апелляционный суд Вашингтона, оспаривая отдельное решение Пентагона, которое может распространить блокировку на все федеральное правительство. Руководство Anthropic предупреждает, что включение в «черный список» может привести к миллиардным убыткам в 2026 году.