Виталик Бутерин поддержал Anthropic в противостоянии с Пентагоном из-за военного ИИ

3 часа назад 2 источника neutral

Главное по теме:

  • Поддержка Бутерина усиливает позицию Anthropic в переговорах, что может снизить регуляторные риски для AI-сектора в целом.
  • Конфликт подчеркивает растущую важность этических стандартов в AI, что может повлиять на оценку криптопроектов, интегрирующих ИИ.
  • Жесткая позиция правительства США указывает на усиление надзора за технологиями, что создает волатильность для связанных активов.

Сооснователь Ethereum Виталик Бутерин публично выступил в поддержку компании Anthropic, которая находится в жёстком противостоянии с администрацией США по вопросу использования её технологий искусственного интеллекта в военных целях. Бутерин заявил в социальной сети X, что его мнение об Anthropic «значительно вырастет, если они не отступят и достойно примут последствия».

Суть конфликта заключается в отказе Anthropic снять ограничения, блокирующие применение её ИИ-моделей для автономного наведения оружия и массовой слежки за гражданами США. Министр обороны США Пит Хегсет выдвинул компании ультиматум с крайним сроком до пятницы, 25 февраля 2026 года, 17:00, предоставить военным широкий доступ к своим разработкам. В случае отказа Пентагон угрожает признать Anthropic «риском для цепочки поставок» — статус, обычно применяемый к иностранным противникам, — или рекомендовать применение Заказа о производстве в интересах обороны (Defense Production Act), дающего правительству чрезвычайные полномочия.

Anthropic, являющаяся одним из самых быстрорастущих технологических предприятий с оценкой в $380 млрд после недавнего раунда финансирования на $30 млрд, до недавнего времени была единственным поставщиком больших языковых моделей, допущенным к работе в засекреченных сетях США. Компания получила контракт Министерства обороны на $200 млн в прошлом году. Её публичная позиция остаётся сдержанной: представитель заявил Reuters о «продолжающихся добросовестных переговорах», направленных на обеспечение поддержки национальной безопасности «надёжно и ответственно».

Конфликт обострился после сообщений об использовании флагманского продукта Anthropic, Claude, совместно с технологиями Palantir во время спецоперации США в Венесуэле. Пентагон настаивает на стандарте «для всех законных целей» в переговорах не только с Anthropic, но и с другими ведущими лабораториями ИИ, утверждая, что использование должно регулироваться американским законодательством, а не внутренней политикой частной компании.

Эксперты отмечают, что этот спор имеет далеко идущие последствия, выходящие за рамки одного контракта. Речь идёт о прецеденте: могут ли разработчики передового ИИ устанавливать ограничения на уровне продукта, когда их системы внедрены в сферу национальной безопасности. По словам юриста по государственным контрактам Франклина Тёрнера, карательные меры против Anthropic будут «беспрецедентными» и, вероятно, выльются в судебные разбирательства.

Поддержка Бутерина прозвучала на фоне отчёта Citrini Research «Глобальный кризис интеллекта 2028 года», который посеял беспокойство на Уолл-стрит, рисуя антиутопический сценарий, где быстрый прогресс в автоматизации к 2028 году может привести к росту безработицы в США более чем до 10%.

Главное сегодня
Отказ от ответственности

Данный материал носит информационный характер и не является инвестиционной рекомендацией. Криптоактивы высокорискованны и волатильны — возможна полная потеря средств. Материалы могут содержать ссылки и пересказы сторонних источников; администрация не отвечает за их содержание и точность. Coinalertnews рекомендует самостоятельно проверять информацию и консультироваться со специалистами, прежде чем принимать любые финансовые решения на основе этого контента.