OpenAI впервые после релиза модели GPT-2 представила две LLM с открытым исходным кодом: gpt-oss:20b и gpt-oss:120b. Пользователи, успевшие протестировать эти нейросети, отмечают непревзойденную производительность на уровне GPT o3 и o4-mini.
Подробнее о моделях GPT-OSS
Рассуждающие нейросети GPT-OSS распространяются по свободной лицензии Apache 2.0 через популярные ИИ-платформы, такие как Ollama, GitHub и Hugging Face. Старшая модель со 120 миллиардов параметров предназначена для использования в производстве, в общих целях, а также для решения сложных задач, а младшая модель с 20 миллиардами параметров подойдет для ежедневных операций. Контекстное окно нейросетей достигает 128 тысяч токенов.
Обе модели базируются на архитектуре MoE, благодаря чему gpt-oss-120b активирует только 5,1 миллиардов параметров на токен, а gpt-oss-20b активирует 3,6 миллиардов на токен. Использование квантования MXFP4, где веса квантуются до 4,25 бит на параметр, что позволяет сократить размер нейросетей до 14 ГБ (gpt-oss-20b) и 65 ГБ (gpt-oss-120b) и запускать их на GPU с объемом VRAM 16 ГБ и 80 ГБ соответственно. Модели GPT-OSS также поддерживают настройку цепочки рассуждений и регулируемую скорость генерации ответов (низкая, средняя, высокая), что полезно для тонкой настройки эффективности LLM. В цепочку рассуждения встроена функция вызова инструментов вроде веб-поиска, разметки Python, однако мультимодальный функционал полностью отсутствует, поэтому работа с изображениями и вывод запросов звуков недоступен. Обе нейросети продемонстрировали высочайшую производительность в программировании, математике (AIME 2024 и 2025), здравоохранении, использовании агентских инструментов и решении повседневных задач по сравнению с другими моделями OpenAI, включая o3, o3‑mini и o4-mini.
Результаты тестирования моделей GPT-OSS в сравнении с GPT o3 и GPT o4-mini. Источник: Ollama.
Выводы
Релиз, которого ждало все сообщество ИИ-индустрии, наконец-то состоялся, подняв огромный ажиотаж в сети — буквально все пользователи ринулись тестировать передовые нейросети OpenAI GPT-oss:20b и GPT-oss:120b. Команда ServerFlow не останется в стороне и уже завтра мы выпустим видеоролик, в котором наглядно продемонстрируем эффективность новых LLM.
80 ГБ? Мне реально нужно инвестировать несколько лямов в видеокарту вместо максимальной подписки? Сколько лет то она окупаться будет тем более что устареет через несколько лет
Serverflow
Для повседневных задач хватит GPT-oss:20b, она работает на 16 ГБ. А 120b с 80 ГБ это уже решение для крупных команд, которым важны автономность и отказ от подписок. В таком случае инвестиция может быстро окупиться :)
Получите скидку 3 000 рублей или бесплатную доставку за подписку на новости*!
* — скидка предоставляется при покупке от 30 000 рублей, в ином случае предусмотрена бесплатная доставка.
Мы получили ваш отзыв!
Он появится на сайте после модерации.
Мы получили ваш отзыв!
Он появится на сайте после модерации.
Продолжная использовать наш сайт, вы даете согласие на использование файлов Cookie, пользовательских данных (IP-адрес, вид операционной системы, тип браузера, сведения о местоположении, источник, откуда пришел на сайт пользователь, с какого сайта или по какой рекламе, какие страницы
открывает и на какие страницы нажимает пользователь) в целях функционирования сайта, проведения статистических исследований и обзоров. Если вы не хотите, чтобы ваши данные обрабатывались, покиньте сайт.