Top.Mail.Ru
Nvidia Nemotron 3: анонс топовых open-source LLM от Nvidia | Блог Serverflow Скачать
прайс-лист
Бесплатная
доставка по РФ
Скидка
за отзыв!
Из-за нестабильности цен RAM фактическая стоимость может отличаться. Цена подтверждается после оформления заказа, работаем над обновлением цен!
Distribution of
Server Components
8 (800) 222-70-01 Консультация IT-специалиста Сравнение

Nvidia Nemotron 3: анонс топовых open-source LLM от Nvidia

~ 2 мин
170
Простой
Новости
Nvidia Nemotron 3: анонс топовых open-source LLM от Nvidia

Введение

Компания Nvidia — это не только поставщик топовых ИИ-ускорителей, но и один из ведущих разработчиков ИИ-софта: от систем развертывания и обучения LLM до самих языковых моделей. Вчера компания пополнила свой портфель нейросетей, представив линейку открытых моделей Nemotron 3, в которую вышли LLM Nano, Super, Ultra, обеспечивающие в 4 раза большую пропускную способность генерации токенов в сравнении с Nemotron 2.

Подробнее о Nemotron 3

Модели Nemotron 3 обучены с нуля построены на гибридной архитектуре MoE с 23 слоями Mamba-2 (новая ИИ-архитектура, устраняющая квадратичный рост сложности трансформеров), что позволяет обрабатывать большое количество параллельных задач и оптимизировать нейросети логический вывод, сохраняя возможность обработки длинных контекстов. Кроме того, Mamba-слои позволили Nvidia масштабировать контекстное окно модели до 1 миллиона токенов, выводя компактную, открытую нейросеть на уровень проприетарных гигантов вроде Gemini 3 и GPT-5.2. При этом, размер ответа модели достигает 128 000 токенов, что позволяет нейросети отвечать максимально развернуто, удовлетворяя требования пользователя.

Пока что из всей линейки вышла только ИИ-модель Nano на 30 миллиардов параметров и 3,5 миллиардов активных параметров. Nano обучена на датасете из 25 триллионов токенов, 35% из которых состоят из синтетических данных, а остальная часть взята из открытых источников, включая веб-ресурсы. Текстовый набор относительно актуальный — сбор данных проводился до 1 мая 2025 года. При обучении использовался RL-подход, в качестве учителя использовалась мощная модель Nvidia Megatron, которая генерировала задачи для улучшения точности и масштабирования навыков Nemotron 3 Nano. В языковой датасет также вошли 185 миллиардов токенов русского языка, поэтому модель можно применять и в отечественных ИИ-приложениях, например, для создания агентских систем и чат-ботов. В области программирования Nemotron 3 Nano также обучали на различных языках, но в большей степени на коде Java, Python, JavaScript, HTML и C++. Основной датасет выложен в open-source вместе с релизом модели, однако часть наборов данных для дообучения Nvidia оставила под замком. Также предусмотрены флаги и траектории логического мышления для настройки логики и создания шаблонов Nemotron 3 Nano.

Доступна базовая модель Nano для дообучения и тюнинга, а также версии FP8 и BF16 для локального инференса. Благодаря релизу в open-source, в будущем у Nano-30b обязательно появятся квантизированные версии от сообщества или самой Nvidia, что еще больше упростит локальный вывод модели. Главное отличие от Nemotron 2 — 4-кратное увеличение скорости вывода и сокращение требуемых для рассуждения токенов на 60%. Nemotron 3 Nano поддерживает только тестовые входные данные — возможно, поддержка мультимодальности появится в нейросетях Super и Ultra. 

Nemotron 3 Nano уже доступен на Hugging Face и у различных поставщиков услуг логического вывода. Он интегрируется с корпоративными платформами ИИ и инфраструктурой данных, включая Couchbase, DataRobot, H2O.ai и UiPath, и доступен через AWS Amazon Bedrock с поддержкой микросервисного развертывания с аппаратным ускорением NVIDIA. Для локального инференса Nano компания Nvidia рекомендует использовать мощные, профессиональные ИИ-ускорители H100 на 80 ГБ или A100 на 80 ГБ (в системах на базе Linux) для достижения максимальной производительности, есть поддержка нулевого дня от движков vLLM (версия 0,12,0), SGLang, TensorRT и LM Studio. Вес модели в режиме BF16 достигает 63 ГБ, а в FP8 вес снижается до 37,7 ГБ — тут одной топовой RTX 5090 не обойтись, Nvidia об этом позаботилась.

Будущая модель Nemotron 3 Super для инференса на GPU-серверах ориентирована на сценарии, где требуется совместная работа множества агентов с низкой задержкой, а Nemotron 3 Ultra обеспечивает расширенный логический вывод в ИИ-кластерах для сложных задач, требующих глубокого анализа и стратегического планирования. Эти модели используют 4-битный формат обучения NVFP4 на архитектуре NVIDIA Blackwell, что снижает требования к памяти и ускоряет обучение, позволяя масштабировать вычисления без потери точности.

Выводы

Nemotron 3 открывает новые горизонты для разработки ИИ-моделей, поскольку Nvidia предоставила ML-специалистам буквально полный набор инструментов для создания передовых нейросетей, открыв доступ не только к новой нейросети Nano-30B, но и к ключевым датасетам, которые использовались при обучении LLM. Nemotron 3 Nano поставляется по собственному лицензионному соглашению Nvidia. Релиз моделей Super и Ultra ожидается в первой половине 2026 года — скорее всего, их покажут на конференции CES 2026.
Автор: Serverflow Serverflow
Поделиться

Комментарии 0

Написать комментарий
Сейчас тут ничего нет. Ваш комментарий может стать первым.
Написать отзыв
До 6 фото, размером до 12Мб каждое
Мы получили ваш отзыв!

Он появится на сайте после модерации.

Написать комментарий

Комментарий появится на сайте после предварительной модерации

До 6 фото, размером до 12Мб каждое
Мы получили ваш отзыв!

Он появится на сайте после модерации.

Мы свяжемся с вами утром

График работы: Пн-Пт 10:00-18:30 (по МСК)

Обработаем вашу заявку
в ближайший рабочий день

График работы: Пн-Пт 10:00-18:30 (по МСК)