Сооснователь Ethereum Виталик Бутерин публично выступил в поддержку компании Anthropic, которая находится в жёстком противостоянии с администрацией США по вопросу использования её технологий искусственного интеллекта в военных целях. Бутерин заявил в социальной сети X, что его мнение об Anthropic «значительно вырастет, если они не отступят и достойно примут последствия».
Суть конфликта заключается в отказе Anthropic снять ограничения, блокирующие применение её ИИ-моделей для автономного наведения оружия и массовой слежки за гражданами США. Министр обороны США Пит Хегсет выдвинул компании ультиматум с крайним сроком до пятницы, 25 февраля 2026 года, 17:00, предоставить военным широкий доступ к своим разработкам. В случае отказа Пентагон угрожает признать Anthropic «риском для цепочки поставок» — статус, обычно применяемый к иностранным противникам, — или рекомендовать применение Заказа о производстве в интересах обороны (Defense Production Act), дающего правительству чрезвычайные полномочия.
Anthropic, являющаяся одним из самых быстрорастущих технологических предприятий с оценкой в $380 млрд после недавнего раунда финансирования на $30 млрд, до недавнего времени была единственным поставщиком больших языковых моделей, допущенным к работе в засекреченных сетях США. Компания получила контракт Министерства обороны на $200 млн в прошлом году. Её публичная позиция остаётся сдержанной: представитель заявил Reuters о «продолжающихся добросовестных переговорах», направленных на обеспечение поддержки национальной безопасности «надёжно и ответственно».
Конфликт обострился после сообщений об использовании флагманского продукта Anthropic, Claude, совместно с технологиями Palantir во время спецоперации США в Венесуэле. Пентагон настаивает на стандарте «для всех законных целей» в переговорах не только с Anthropic, но и с другими ведущими лабораториями ИИ, утверждая, что использование должно регулироваться американским законодательством, а не внутренней политикой частной компании.
Эксперты отмечают, что этот спор имеет далеко идущие последствия, выходящие за рамки одного контракта. Речь идёт о прецеденте: могут ли разработчики передового ИИ устанавливать ограничения на уровне продукта, когда их системы внедрены в сферу национальной безопасности. По словам юриста по государственным контрактам Франклина Тёрнера, карательные меры против Anthropic будут «беспрецедентными» и, вероятно, выльются в судебные разбирательства.
Поддержка Бутерина прозвучала на фоне отчёта Citrini Research «Глобальный кризис интеллекта 2028 года», который посеял беспокойство на Уолл-стрит, рисуя антиутопический сценарий, где быстрый прогресс в автоматизации к 2028 году может привести к росту безработицы в США более чем до 10%.