Anthropic ограничивает доступ к ИИ-модели Claude Mythos из-за опасений кибератак

3 часа назад 6 источников neutral

Главное по теме:

  • Ограничение доступа к Claude Mythos может создать новый рынок для специализированных AI-решений в кибербезопасности.
  • Партнерство с крупными корпорациями усиливает позиции Anthropic в конкурентной борьбе с OpenAI и другими игроками.
  • Растущие киберриски от AI могут стимулировать спрос на криптографические решения и аппаратные кошельки.

Компания Anthropic объявила о создании новой ИИ-модели Claude Mythos Preview, демонстрирующей настолько продвинутые кибербезопасностные возможности, что её публичный выпуск был признан неприемлемо рискованным. Модель выявила тысячи ранее неизвестных уязвимостей нулевого дня, включая критические недостатки в каждой крупной операционной системе и веб-браузере. Некоторые из обнаруженных уязвимостей оставались незамеченными десятилетиями, как, например, ошибка в OpenBSD, просуществовавшая 27 лет.

Вместо публичного релиза Anthropic инициировала Project Glasswing — отраслевую коалицию из 12 ключевых партнёров, включая Amazon Web Services, Apple, Cisco, Google, JPMorganChase, Linux Foundation, Microsoft, NVIDIA и других. Им, а также дополнительно 40 организациям, отвечающим за критическую программную инфраструктуру, будет предоставлен эксклюзивный доступ к модели исключительно для оборонительных целей безопасности. Компания выделяет до $100 млн в виде кредитов на использование и $4 млн в виде прямых пожертвований организациям по безопасности с открытым исходным кодом.

Модель демонстрирует беспрецедентную автономность, идентифицируя уязвимости и разрабатывая эксплойты для них практически без участия человека. На бенчмарке CyberGym Mythos набрал 83,1% против 66,6% у предыдущей модели Opus 4.6. По словам Логана Грэма, руководителя группы красных команд Anthropic, модель обладает «рассуждениями, сравнимыми с продвинутым исследователем безопасности».

Решение обусловлено растущими опасениями по поводу двойного использования подобных технологий. Как отмечалось в промышленной политической записке OpenAI, опубликованной накануне, ИИ-кибератаки являются одним из наиболее серьёзных краткосрочных рисков. Статистика показывает рост ИИ-атак на 72% в годовом исчислении. Anthropic уже сталкивалась с использованием её моделей государственными хакерскими группами.

Стратегия Project Glasswing направлена на то, чтобы дать защитникам фору до того, как аналогичные возможности появятся у потенциальных злоумышленников. Как отметил Джим Землин, генеральный директор Linux Foundation, это позволит сделать безопасность на базе ИИ доступной для сообществ с открытым исходным кодом, которые ранее не могли себе этого позволить.

Однако объявление сопровождается определёнными сложностями. Недавно Anthropic допустила утечку собственного исходного кода, а существование Mythos первоначально было раскрыто из-за незащищённого кэша данных. Компания также ведёт переговоры с Министерством обороны США по поводу использования её технологий. Anthropic обязалась опубликовать публичный отчёт об извлечённых уроках в течение 90 дней.

Главное сегодня
Отказ от ответственности

Данный материал носит информационный характер и не является инвестиционной рекомендацией. Криптоактивы высокорискованны и волатильны — возможна полная потеря средств. Материалы могут содержать ссылки и пересказы сторонних источников; администрация не отвечает за их содержание и точность. Coinalertnews рекомендует самостоятельно проверять информацию и консультироваться со специалистами, прежде чем принимать любые финансовые решения на основе этого контента.