Компания Mistral AI представляет новое, революционное семейство моделей Mistral 3 на архитектуре Sparse Mixture-of-Experts (SMoE). Эти открытые, мультимодальные ИИ-решения предлагают беспрецедентное сочетание эффективности и доступности: благодаря наличию компактных версий Mistral-3-14b, Mistral-3-8b и Mistral-3-3b (+ по 3 Base/Instruct/Reasoning версий), поддержки широкого спектра форматов вычислений и интеграция в популярные движки инференса, локальное развертывание моделей семейства Mistral 3 можно выполнять на любых типах устройств. Но гвоздем программы стала флагманская модель Mistral 3 Large на 675 миллиардов общих и 41 миллиардов активных параметров, которая обеспечивает феноменальную производительность среди открытых ИИ-моделей.
Подробнее о Mistral Large 3
Mistral-Large-3-675b с контекстным окном в 256 тысяч токенов обучена с нуля на кластере из 3000 GPU Nvidia H200, благодаря чему разработчикам удалось достичь превосходства в области понимания изображений, многоязычных текстовых задач и логических операциях над другими открытыми моделями того же уровня. В рейтинге LMArena Mistral Large 3 занимает впечатляющее 2-е место среди OSS-моделей без логического вывода и 6-е место среди моделей OSS в целом.
Производительность Mistral Large 3 в LMArena в сравнении с Qwen3-VL, DeepSeek-V3.2 и Kimi-K2. Источник: .
Mistral Large 3 удалось достичь производительности на уровне топовых больших проприетарных ИИ-моделей ChatGPT и Gemini, при этом превосходя флагманские открытые ИИ-решения DeepSeek V3.1, Qwen3, Kimi-K2 и Gemma. Разработчики выпустили как базовую, так и оптимизированную под инференс версию Mistral Large 3 в режиме NVFP4, а также модификацию с улучшенным следованием инструкциям. Веса флагманской модели Mistral Large 3, а также модификации Base и Instruct уже доступны на под лицензией Apache 2.0, а также скоро разработчики представят версия с расширенными возможностями рассуждения.
Сравнение ИИ-производительности Mistral Large 3 с DeepSeek V3.1 и Kimi-K2. Источник: .
Подробнее о Mistral 3 14b, 8b и 3b
Mistral AI позаботилась о том, чтобы ее топовые ИИ-модели семейства Ministral 3 можно было запускать на локальных и периферийных устройствах. Для этих целей компания выпустила мультимодальные модели Ministral 3 с 3, 8 и 14 миллиардов параметров. Для каждого объема параметров предлагаются версии Base, Instruct и Reasoning. Все они доступны на Hugging Face под лицензией Apache 2.0. Ministral 3 обеспечивает наилучшее соотношение доступности и производительности среди открытых моделей. В задачах, где критически важна только точность, компактные Ministral 3 демонстрируют высочайшие результаты в своей весовой категории, например, достигая 85% на тесте AIME ‘25 для варианта на 14 миллиардов параметров.
Производительность Mistral 3 14b, 8b и 3b в бенчмарке GPQA Diamond. Источник: .
Новое семейство ИИ-моделей Mistral 3 разрабатывалось при сотрудничестве с NVIDIA, vLLM и Red Hat. Инженеры NVIDIA обеспечили глубокую оптимизацию логического вывода через TensorRT-LLM и SGLang, поддерживая эффективные операции с низкой точностью. Для архитектуры смеси экспертов в Large 3 были интегрированы современные ядра внимания Blackwell, добавлена поддержка дезагрегированной подачи и совместно разработано спекулятивное декодирование. Это позволяет эффективно выполнять высокопроизводительные рабочие нагрузки с большим контекстом на платформах уровня GB200 NVL72. Одновременно обеспечивается оптимизированное развертывание компактных моделей Ministral на периферийных устройствах: от DGX Spark и ПК с RTX до ноутбуков и платформ Jetson.
Сравнение производительности размышляющей версии Mistral-3-14b с Gemma-3-12b и Qwen3-14b. Источник: .
Уже сейчас нейросети Mistral 3 доступны для развертывания через все топовые ИИ-движки инференса, включая vLLM, SGLang, llama.cpp, Ollama, LM Studio и другие популярные платформы. Модели Mistral 3 также доступны в облаке через множество платформ: Mistral AI Studio, Amazon Bedrock, Azure Foundry, Modal, IBM WatsonX, OpenRouter, Fireworks, Unsloth AI и Together AI. В ближайшее время пополнение появится в NVIDIA NIM и AWS SageMaker.
Выводы
Mistral 3 — по праву можно назвать самым громким ИИ-релизом в open-source на данный момент. Новое семейство передовых ИИ-моделей совмещает мультимодальную гибкость, многоязычную поддержку (более 40 языков, включая русский), непревзойденную производительность и доступность для всех пользователей, позволяя запускать модели от 3 до 675 миллиардов параметров для выполнения любых типов задач. Впечатляет, что Mistral AI основательно подготовилась к выпуску моделей Mistral 3, обеспечив поддержку нового топового семейства LLM буквально на всех ИИ-площадках с первого дня.
Продолжная использовать наш сайт, вы даете согласие на использование файлов Cookie, пользовательских данных (IP-адрес, вид операционной системы, тип браузера, сведения о местоположении, источник, откуда пришел на сайт пользователь, с какого сайта или по какой рекламе, какие страницы
открывает и на какие страницы нажимает пользователь) в целях функционирования сайта, проведения статистических исследований и обзоров. Если вы не хотите, чтобы ваши данные обрабатывались, покиньте сайт.