Top.Mail.Ru
GPT-OSS 20b и 120b: OpenAI представила языковые модели с открытым исходным кодом | Блог Serverflow Скачать
прайс-лист
Бесплатная
доставка по РФ
Distribution of
Server Components
8 (800) 222-70-01 Консультация IT-специалиста Сравнение

GPT-OSS 20b и 120b: OpenAI представила языковые модели с открытым исходным кодом

~ 2 мин
581
Простой
Новости
GPT-OSS 20b и 120b: OpenAI представила языковые модели с открытым исходным кодом

Введение

OpenAI впервые после релиза модели GPT-2 представила две LLM с открытым исходным кодом: gpt-oss:20b и gpt-oss:120b. Пользователи, успевшие протестировать эти нейросети, отмечают непревзойденную производительность на уровне GPT o3 и o4-mini.

Подробнее о моделях GPT-OSS

Рассуждающие нейросети GPT-OSS распространяются по свободной лицензии Apache 2.0 через популярные ИИ-платформы, такие как Ollama, GitHub и Hugging Face. Старшая модель со 120 миллиардов параметров предназначена для использования в производстве, в общих целях, а также для решения сложных задач, а младшая модель с 20 миллиардами параметров подойдет для ежедневных операций. Контекстное окно нейросетей достигает 128 тысяч токенов.

Характеристики моделей GPT-OSS
Характеристики моделей GPT-OSS. Источник: Ollama.

Обе модели базируются на архитектуре MoE, благодаря чему gpt-oss-120b активирует только 5,1 миллиардов параметров на токен, а gpt-oss-20b активирует 3,6 миллиардов на токен. Использование квантования MXFP4, где веса квантуются до 4,25 бит на параметр, что позволяет сократить размер нейросетей до 14 ГБ (gpt-oss-20b) и 65 ГБ (gpt-oss-120b) и запускать их на GPU с объемом VRAM 16 ГБ и 80 ГБ соответственно. Модели GPT-OSS также поддерживают настройку цепочки рассуждений и регулируемую скорость генерации ответов (низкая, средняя, высокая), что полезно для тонкой настройки эффективности LLM. В цепочку рассуждения встроена функция вызова инструментов вроде веб-поиска, разметки Python, однако мультимодальный функционал полностью отсутствует, поэтому работа с изображениями и вывод запросов звуков недоступен. Обе нейросети продемонстрировали высочайшую производительность в программировании, математике (AIME 2024 и 2025), здравоохранении, использовании агентских инструментов и решении повседневных задач по сравнению с другими моделями OpenAI, включая o3, o3‑mini и o4-mini.

Результаты тестирования GPT-OSS
Результаты тестирования моделей GPT-OSS в сравнении с GPT o3 и GPT o4-mini. Источник: Ollama.

Выводы

Релиз, которого ждало все сообщество ИИ-индустрии, наконец-то состоялся, подняв огромный ажиотаж в сети — буквально все пользователи ринулись тестировать передовые нейросети OpenAI GPT-oss:20b и GPT-oss:120b. Команда ServerFlow не останется в стороне и уже завтра мы выпустим видеоролик, в котором наглядно продемонстрируем эффективность новых LLM.

Автор: Serverflow Serverflow
Поделиться

Комментарии 1

Написать комментарий
Grok
80 ГБ? Мне реально нужно инвестировать несколько лямов в видеокарту вместо максимальной подписки? Сколько лет то она окупаться будет тем более что устареет через несколько лет
Serverflow
Для повседневных задач хватит GPT-oss:20b, она работает на 16 ГБ. А 120b с 80 ГБ это уже решение для крупных команд, которым важны автономность и отказ от подписок. В таком случае инвестиция может быстро окупиться :)
Написать отзыв
До 6 фото, размером до 12Мб каждое
Мы получили ваш отзыв!

Он появится на сайте после модерации.

Написать комментарий

Комментарий появится на сайте после предварительной модерации

До 6 фото, размером до 12Мб каждое
Мы получили ваш отзыв!

Он появится на сайте после модерации.

Мы свяжемся с вами утром

График работы: Пн-Пт 10:00-19:00 (по МСК)

Обработаем вашу заявку
в ближайший рабочий день

График работы: Пн-Пт 10:00-19:00 (по МСК)