Top.Mail.Ru
Релиз Mistral 3: полностью открытый ИИ-стек от Mistral-3-3b до Mistral-3-Large-675b | Блог Serverflow Скачать
прайс-лист
Бесплатная
доставка по РФ
Скидка
за отзыв!
Из-за нестабильности цен RAM фактическая стоимость может отличаться. Цена подтверждается после оформления заказа, работаем над обновлением цен!
Distribution of
Server Components
8 (800) 222-70-01 Консультация IT-специалиста Сравнение

Релиз Mistral 3: полностью открытый ИИ-стек от Mistral-3-3b до Mistral-3-Large-675b

~ 2 мин
175
Простой
Новости
Релиз Mistral 3: полностью открытый ИИ-стек от Mistral-3-3b до Mistral-3-Large-675b

Введение

Компания Mistral AI представляет новое, революционное семейство моделей Mistral 3 на архитектуре Sparse Mixture-of-Experts (SMoE). Эти открытые, мультимодальные ИИ-решения предлагают беспрецедентное сочетание эффективности и доступности: благодаря наличию компактных версий Mistral-3-14b, Mistral-3-8b и Mistral-3-3b (+ по 3 Base/Instruct/Reasoning версий), поддержки широкого спектра форматов вычислений и интеграция в популярные движки инференса, локальное развертывание моделей семейства Mistral 3 можно выполнять на любых типах устройств. Но гвоздем программы стала флагманская модель Mistral 3 Large на 675 миллиардов общих и 41 миллиардов активных параметров, которая обеспечивает феноменальную производительность среди открытых ИИ-моделей.

Подробнее о Mistral Large 3

Mistral-Large-3-675b с контекстным окном в 256 тысяч токенов обучена с нуля на кластере из 3000 GPU Nvidia H200, благодаря чему разработчикам удалось достичь превосходства в области понимания изображений, многоязычных текстовых задач и логических операциях над другими открытыми моделями того же уровня. В рейтинге LMArena Mistral Large 3 занимает впечатляющее 2-е место среди OSS-моделей без логического вывода и 6-е место среди моделей OSS в целом. 

Производительность Mistral Large 3 в LMArena
Производительность Mistral Large 3 в LMArena в сравнении с Qwen3-VL, DeepSeek-V3.2 и Kimi-K2. Источник: Mistral AI.

Mistral Large 3 удалось достичь производительности на уровне топовых больших проприетарных ИИ-моделей ChatGPT и Gemini, при этом превосходя флагманские открытые ИИ-решения DeepSeek V3.1, Qwen3, Kimi-K2 и Gemma. Разработчики выпустили как базовую, так и оптимизированную под инференс версию Mistral Large 3 в режиме NVFP4, а также модификацию с улучшенным следованием инструкциям. Веса флагманской модели Mistral Large 3, а также модификации Base и Instruct уже доступны на Hugging Face под лицензией Apache 2.0, а также скоро разработчики представят версия с расширенными возможностями рассуждения. 

Сравнение Mistral Large 3 с DeepSeek V3.1 и Kimi-K2
Сравнение ИИ-производительности Mistral Large 3 с DeepSeek V3.1 и Kimi-K2. Источник: Mistral AI.

Подробнее о Mistral 3 14b, 8b и 3b

Mistral AI позаботилась о том, чтобы ее топовые ИИ-модели семейства Ministral 3 можно было запускать на локальных и периферийных устройствах. Для этих целей компания выпустила мультимодальные модели Ministral 3 с 3, 8 и 14 миллиардов параметров. Для каждого объема параметров предлагаются версии Base, Instruct и Reasoning. Все они доступны на Hugging Face под лицензией Apache 2.0. Ministral 3 обеспечивает наилучшее соотношение доступности и производительности среди открытых моделей. В задачах, где критически важна только точность, компактные Ministral 3 демонстрируют высочайшие результаты в своей весовой категории, например, достигая 85% на тесте AIME ‘25 для варианта на 14 миллиардов параметров.

Производительность Mistral 3 14b, 8b и 3b в GPQA Diamond
Производительность Mistral 3 14b, 8b и 3b в бенчмарке GPQA Diamond. Источник: Mistral AI.

Новое семейство ИИ-моделей Mistral 3 разрабатывалось при сотрудничестве с NVIDIA, vLLM и Red Hat. Инженеры NVIDIA обеспечили глубокую оптимизацию логического вывода через TensorRT-LLM и SGLang, поддерживая эффективные операции с низкой точностью. Для архитектуры смеси экспертов в Large 3 были интегрированы современные ядра внимания Blackwell, добавлена поддержка дезагрегированной подачи и совместно разработано спекулятивное декодирование. Это позволяет эффективно выполнять высокопроизводительные рабочие нагрузки с большим контекстом на платформах уровня GB200 NVL72. Одновременно обеспечивается оптимизированное развертывание компактных моделей Ministral на периферийных устройствах: от DGX Spark и ПК с RTX до ноутбуков и платформ Jetson. 

Сравнение Mistral-3-14b с Gemma-3-12b и Qwen3-14b
Сравнение производительности размышляющей версии Mistral-3-14b с Gemma-3-12b и Qwen3-14b. Источник: Mistral AI.

Уже сейчас нейросети Mistral 3 доступны для развертывания через все топовые ИИ-движки инференса, включая vLLM, SGLang, llama.cpp, Ollama, LM Studio и другие популярные платформы. Модели Mistral 3 также доступны в облаке через множество платформ: Mistral AI Studio, Amazon Bedrock, Azure Foundry, Modal, IBM WatsonX, OpenRouter, Fireworks, Unsloth AI и Together AI. В ближайшее время пополнение появится в NVIDIA NIM и AWS SageMaker.

Выводы

Mistral 3 — по праву можно назвать самым громким ИИ-релизом в open-source на данный момент. Новое семейство передовых ИИ-моделей совмещает мультимодальную гибкость, многоязычную поддержку (более 40 языков, включая русский), непревзойденную производительность и доступность для всех пользователей, позволяя запускать модели от 3 до 675 миллиардов параметров для выполнения любых типов задач. Впечатляет, что Mistral AI основательно подготовилась к выпуску моделей Mistral 3, обеспечив поддержку нового топового семейства LLM буквально на всех ИИ-площадках с первого дня.
Автор: Serverflow Serverflow
Поделиться

Комментарии 0

Написать комментарий
Сейчас тут ничего нет. Ваш комментарий может стать первым.
Написать отзыв
До 6 фото, размером до 12Мб каждое
Мы получили ваш отзыв!

Он появится на сайте после модерации.

Написать комментарий

Комментарий появится на сайте после предварительной модерации

До 6 фото, размером до 12Мб каждое
Мы получили ваш отзыв!

Он появится на сайте после модерации.

Мы свяжемся с вами утром

График работы: Пн-Пт 10:00-18:30 (по МСК)

Обработаем вашу заявку
в ближайший рабочий день

График работы: Пн-Пт 10:00-18:30 (по МСК)