Сразу две громкие атаки на цепочки поставок в экосистеме искусственного интеллекта выявили критическую уязвимость для держателей криптовалют. Microsoft Threat Intelligence обнаружила вредоносный код в официальном пакете Mistral AI, распространявшемся через PyPI, а исследователи HiddenLayer — мошеннический репозиторий на Hugging Face, мимикрировавший под модель OpenAI Privacy Filter.
В случае с Mistral AI злоумышленники внедрили зловреда в пакет, который после скачивания автоматически запускался на Linux-системах разработчиков. Вредонос загружал дополнительный файл transformers.pyz, название которого имитирует популярную библиотеку Hugging Face Transformers, и работал в фоновом режиме как стилер учётных данных — он собирал логины, пароли и токены доступа. Кроме того, код избегал активации на системах с русской локализацией и содержал функционал случайного удаления файлов на устройствах, предположительно находящихся в Израиле или Иране. Атаку связывают с кампанией «Shai-Hulud», которая с сентября 2025 года поражает доверенные пакеты в цепочках поставок ПО.
Параллельно на платформе Hugging Face появился поддельный репозиторий «Open-OSS/privacy-filter», набравший около 244 000 загрузок до удаления. Злоумышленники скопировали документацию настоящей модели OpenAI, но прикрепили инструкцию, требующую клонировать репозиторий и запустить вредоносный скрипт. Под видом обычного загрузчика Python-файл loader отключал проверку SSL, расшифровывал URL и получал команды с публичного JSON-сервиса, что позволяло менять нагрузку без изменения самого репозитория. Затем запускался скрытый процесс PowerShell, добавлялись исключения в Microsoft Defender и через подставной планировщик, маскирующийся под обновление Microsoft Edge, устанавливался Rust-стилер размером 1,07 МБ. Он извлекал данные браузеров, токены Discord, файлы криптовалютных кошельков, SSH-ключи, учётные данные FTP и VPN, после чего отправлял их на командный сервер.
Ни одна из жертв атаки — Mistral AI, OpenAI или Hugging Face — не была скомпрометирована напрямую. Компания Mistral заявила, что инцидент связан с заражением устройства одного из разработчиков в рамках более широкой кампании против платформы TanStack, и подчеркнула отсутствие следов взлома собственной инфраструктуры. Hugging Face и OpenAI официальных комментариев пока не давали.
Обе атаки эксплуатируют доверие разработчиков к инструментам ИИ и несут повышенную угрозу для криптоиндустрии: украденные учётные данные и ключи кошельков позволяют вывести средства безвозвратно. Исследователи настоятельно рекомендуют всем, кто клонировал скомпрометированные репозитории или запускал подозрительные скрипты, считать свои Windows-машины полностью скомпрометированными, немедленно сменить все пароли, токены и SSH-ключи, а криптоактивы переместить на новые кошельки, созданные на чистых устройствах. Единственным надёжным методом очистки остаётся полная переустановка системы.