AI-модели демонстрируют способность взламывать смарт-контракты, обнаруживая уязвимости на миллионы долларов

02.12.2025 06:34 14 источников negative

Новое исследование компании Anthropic показало, что современные системы искусственного интеллекта достигли уровня, позволяющего им находить и эксплуатировать уязвимости в смарт-контрактах блокчейн-приложений, моделируя атаки на сумму в сотни миллионов долларов. Эти результаты обнажают серьёзные риски для безопасности экосистемы децентрализованных финансов (DeFi).

В исследовании, проведённом совместно с MATS и Anthropic Fellows, использовался специализированный бенчмарк SCONE-bench, включающий 405 реально взломанных смарт-контрактов за период с 2020 по 2025 год. Десять передовых AI-моделей, включая Llama 3, Sonnet 3.7, Opus 4, GPT-5 и DeepSeek V3, в симулированной среде успешно воспроизвели 207 эксплойтов. Общая смоделированная стоимость похищенных средств в этих тестах достигла $550 млн.

Чтобы исключить вероятность простого запоминания моделями прошлых инцидентов, исследователи сфокусировались на 34 контрактах, атакованных после 1 марта 2025 года — даты отсечения знаний для тестируемых систем. На этом «чистом» наборе модели Claude Opus 4.5, Claude Sonnet 4.5 и GPT-5 создали рабочие эксплойты для 19 контрактов с совокупной смоделированной стоимостью $4,6 млн. На долю Opus 4.5 пришлось около $4,5 млн из этой суммы.

Более того, AI-агенты продемонстрировали способность находить ранее неизвестные, «zero-day» уязвимости. 3 октября 2025 года модели Sonnet 4.5 и GPT-5 протестировали 2 849 недавно развёрнутых контрактов в сети Binance Smart Chain, не имевших известных проблем. Обе модели обнаружили по две новые уязвимости, сгенерировав атаки стоимостью $3 694. Для GPT-5 затраты на вызов API для достижения этого результата составили около $3 476.

Все испытания проводились исключительно на форкнутых блокчейнах и локальных симуляторах, без какого-либо риска для реальных средств. Целью работы, по заявлению Anthropic, была оценка текущих технических возможностей, а не вмешательство в рабочие системы.

Исследование также выявило тревожную экономическую динамику. За последний год потенциальный доход от эксплойтов для проблем 2025 года примерно удваивался каждые 1,3 месяца. При этом стоимость (в токенах) генерации рабочего эксплойта резко снижалась с выходом новых поколений моделей. Это означает, что злоумышленники могут получать всё больше успешных атак при неизменном бюджете на вычисления.

Хотя работа сфокусирована на DeFi, Anthropic утверждает, что выявленные способности AI применимы и к традиционному программному обеспечению. Ключевой посыл компании для крипторазработчиков заключается в двойственной природе этих инструментов: системы, способные эксплуатировать смарт-контракты, также могут быть использованы для их аудита и исправления до запуска. Эксперты, такие как Дэвид Швед (COO SovereignAI), подтверждают, что многие уязвимости уже публично раскрыты и легко могут быть изучены AI, что упрощает масштабирование атак. Однако он же отмечает, что при должном контроле, тестировании и мониторинге большинства рисков можно избежать, поскольку «хорошие» акторы имеют доступ к тем же технологиям.

Главное сегодня