Mistral представляет семейство AI-моделей Frontier, конкурируя с DeepSeek

3 декабря 2025, 22:26 10 источников neutral

Французский стартап Mistral AI, которого ранее считали аутсайдером на фоне американских гигантов и китайских конкурентов, представил своё самое амбициозное семейство моделей искусственного интеллекта. Четыре модели, выпущенные под открытой лицензией Apache 2.0, охватывают диапазон от компактных ассистентов до флагманской системы с 675 миллиардами параметров.

Флагманская модель Mistral Large 3 использует архитектуру Sparse Mixture-of-Experts, активируя только 41 миллиард из 675 миллиардов параметров на каждый токен. Это позволяет ей работать с производительностью, близкой к 40-миллиардной модели, сохраняя возможности более крупных систем. Модель была обучена с нуля на 3000 GPU NVIDIA H200 и заняла второе место среди открытых не-рассуждающих моделей на лидерборде LMArena.

Конкурентная ситуация с DeepSeek выглядит неоднозначно. По собственным тестам Mistral, их лучшая модель превосходит DeepSeek V3.1 по нескольким метрикам, но немного отстаёт от более новой V3.2 на LMArena. В то время как DeepSeek сохраняет преимущество в скорости кодирования и математической логике, семейство Mistral демонстрирует сопоставимые результаты в задачах общего знания и экспертного рассуждения.

Меньшие модели «Ministral» (3B, 8B и 14B параметров) представляют особый интерес для разработчиков. Все они поддерживают визуальный ввод, причём модель на 3B параметров может работать полностью в браузере через WebGPU. Это открывает возможности для использования в дронах, роботах, автономных системах и встраиваемых решениях.

Корпоративное внедрение уже началось: HSBC объявил о многолетнем партнёрстве с Mistral для развёртывания генеративного ИИ в своих операциях. Банк будет использовать самоуправляемые модели на собственной инфраструктуре, что особенно важно для финансовых институтов, работающих с конфиденциальными данными в рамках GDPR.

NVIDIA совместно с Mistral разработала сжатый чекпоинт NVFP4, позволяющий запускать Large 3 на одном узле с восемью топовыми видеокартами. По заявлениям NVIDIA, Ministral 3B выдаёт примерно 385 токенов в секунду на RTX 5090 и более 50 токенов в секунду на Jetson Thor для робототехнических приложений.

Вскоре ожидается выпуск версии Large 3, оптимизированной для рассуждений. Пока же в этой нише сохраняют преимущество китайские модели, такие как DeepSeek R1, GLM и Qwen Thinking.

Главное сегодня
Отказ от ответственности

Данный материал носит информационный характер и не является инвестиционной рекомендацией. Криптоактивы высокорискованны и волатильны — возможна полная потеря средств. Материалы могут содержать ссылки и пересказы сторонних источников; администрация не отвечает за их содержание и точность. Coinalertnews рекомендует самостоятельно проверять информацию и консультироваться со специалистами, прежде чем принимать любые финансовые решения на основе этого контента.