OpenAI впервые после релиза модели GPT-2 представила две LLM с открытым исходным кодом: gpt-oss:20b и gpt-oss:120b. Пользователи, успевшие протестировать эти нейросети, отмечают непревзойденную производительность на уровне GPT o3 и o4-mini.
Подробнее о моделях GPT-OSS
Рассуждающие нейросети GPT-OSS распространяются по свободной лицензии Apache 2.0 через популярные ИИ-платформы, такие как Ollama, GitHub и Hugging Face. Старшая модель со 120 миллиардов параметров предназначена для использования в производстве, в общих целях, а также для решения сложных задач, а младшая модель с 20 миллиардами параметров подойдет для ежедневных операций. Контекстное окно нейросетей достигает 128 тысяч токенов.
Характеристики моделей GPT-OSS. Источник: .
Обе модели базируются на архитектуре MoE, благодаря чему gpt-oss-120b активирует только 5,1 миллиардов параметров на токен, а gpt-oss-20b активирует 3,6 миллиардов на токен. Использование квантования MXFP4, где веса квантуются до 4,25 бит на параметр, что позволяет сократить размер нейросетей до 14 ГБ (gpt-oss-20b) и 65 ГБ (gpt-oss-120b) и запускать их на GPU с объемом VRAM 16 ГБ и 80 ГБ соответственно. Модели GPT-OSS также поддерживают настройку цепочки рассуждений и регулируемую скорость генерации ответов (низкая, средняя, высокая), что полезно для тонкой настройки эффективности LLM. В цепочку рассуждения встроена функция вызова инструментов вроде веб-поиска, разметки Python, однако мультимодальный функционал полностью отсутствует, поэтому работа с изображениями и вывод запросов звуков недоступен. Обе нейросети продемонстрировали высочайшую производительность в программировании, математике (AIME 2024 и 2025), здравоохранении, использовании агентских инструментов и решении повседневных задач по сравнению с другими моделями OpenAI, включая o3, o3‑mini и o4-mini.
Результаты тестирования моделей GPT-OSS в сравнении с GPT o3 и GPT o4-mini. Источник: .
Выводы
Релиз, которого ждало все сообщество ИИ-индустрии, наконец-то состоялся, подняв огромный ажиотаж в сети — буквально все пользователи ринулись тестировать передовые нейросети OpenAI GPT-oss:20b и GPT-oss:120b. Команда ServerFlow не останется в стороне и уже завтра мы выпустим видеоролик, в котором наглядно продемонстрируем эффективность новых LLM.
80 ГБ? Мне реально нужно инвестировать несколько лямов в видеокарту вместо максимальной подписки? Сколько лет то она окупаться будет тем более что устареет через несколько лет
Serverflow
Для повседневных задач хватит GPT-oss:20b, она работает на 16 ГБ. А 120b с 80 ГБ это уже решение для крупных команд, которым важны автономность и отказ от подписок. В таком случае инвестиция может быстро окупиться :)
Скидка 3 000 ₽ или бесплатная доставка — уже сейчас 🔥
Мы ценим вашу обратную связь. После покупки оставьте отзыв о ServerFlow на Яндексе и условия акции будут исполнены.
* — скидка предоставляется при покупке от 30 000 рублей, в ином случае предусмотрена бесплатная доставка.
Продолжная использовать наш сайт, вы даете согласие на использование файлов Cookie, пользовательских данных (IP-адрес, вид операционной системы, тип браузера, сведения о местоположении, источник, откуда пришел на сайт пользователь, с какого сайта или по какой рекламе, какие страницы
открывает и на какие страницы нажимает пользователь) в целях функционирования сайта, проведения статистических исследований и обзоров. Если вы не хотите, чтобы ваши данные обрабатывались, покиньте сайт.