Хакеры атакуют цепочки поставок ИИ: заражённые сборки Mistral AI и поддельный репозиторий OpenAI крадут криптокошельки

вчера / 23:46 2 источника negative

Главное по теме:

  • Целенаправленные атаки на AI-разработчиков усиливают риски компрометации криптокошельков, что может снизить доверие к AI-токенам.
  • Массовое распространение стилеров через PyPI и Hugging Face угрожает приватным ключам миллионов разработчиков, требуя немедленного аудита безопасности.
  • Рост инцидентов в цепочках поставок стимулирует спрос на проекты кибербезопасности вроде токенов аудита и страхования смарт-контрактов.

Сразу две громкие атаки на цепочки поставок в экосистеме искусственного интеллекта выявили критическую уязвимость для держателей криптовалют. Microsoft Threat Intelligence обнаружила вредоносный код в официальном пакете Mistral AI, распространявшемся через PyPI, а исследователи HiddenLayer — мошеннический репозиторий на Hugging Face, мимикрировавший под модель OpenAI Privacy Filter.

В случае с Mistral AI злоумышленники внедрили зловреда в пакет, который после скачивания автоматически запускался на Linux-системах разработчиков. Вредонос загружал дополнительный файл transformers.pyz, название которого имитирует популярную библиотеку Hugging Face Transformers, и работал в фоновом режиме как стилер учётных данных — он собирал логины, пароли и токены доступа. Кроме того, код избегал активации на системах с русской локализацией и содержал функционал случайного удаления файлов на устройствах, предположительно находящихся в Израиле или Иране. Атаку связывают с кампанией «Shai-Hulud», которая с сентября 2025 года поражает доверенные пакеты в цепочках поставок ПО.

Параллельно на платформе Hugging Face появился поддельный репозиторий «Open-OSS/privacy-filter», набравший около 244 000 загрузок до удаления. Злоумышленники скопировали документацию настоящей модели OpenAI, но прикрепили инструкцию, требующую клонировать репозиторий и запустить вредоносный скрипт. Под видом обычного загрузчика Python-файл loader отключал проверку SSL, расшифровывал URL и получал команды с публичного JSON-сервиса, что позволяло менять нагрузку без изменения самого репозитория. Затем запускался скрытый процесс PowerShell, добавлялись исключения в Microsoft Defender и через подставной планировщик, маскирующийся под обновление Microsoft Edge, устанавливался Rust-стилер размером 1,07 МБ. Он извлекал данные браузеров, токены Discord, файлы криптовалютных кошельков, SSH-ключи, учётные данные FTP и VPN, после чего отправлял их на командный сервер.

Ни одна из жертв атаки — Mistral AI, OpenAI или Hugging Face — не была скомпрометирована напрямую. Компания Mistral заявила, что инцидент связан с заражением устройства одного из разработчиков в рамках более широкой кампании против платформы TanStack, и подчеркнула отсутствие следов взлома собственной инфраструктуры. Hugging Face и OpenAI официальных комментариев пока не давали.

Обе атаки эксплуатируют доверие разработчиков к инструментам ИИ и несут повышенную угрозу для криптоиндустрии: украденные учётные данные и ключи кошельков позволяют вывести средства безвозвратно. Исследователи настоятельно рекомендуют всем, кто клонировал скомпрометированные репозитории или запускал подозрительные скрипты, считать свои Windows-машины полностью скомпрометированными, немедленно сменить все пароли, токены и SSH-ключи, а криптоактивы переместить на новые кошельки, созданные на чистых устройствах. Единственным надёжным методом очистки остаётся полная переустановка системы.

Главное сегодня
Отказ от ответственности

Данный материал носит информационный характер и не является инвестиционной рекомендацией. Криптоактивы высокорискованны и волатильны — возможна полная потеря средств. Материалы могут содержать ссылки и пересказы сторонних источников; администрация не отвечает за их содержание и точность. Coinalertnews рекомендует самостоятельно проверять информацию и консультироваться со специалистами, прежде чем принимать любые финансовые решения на основе этого контента.