Бесплатная
доставка по РФ
Distribution of
Server Components
8 (800) 222-70-01 Консультация IT-специалиста Сравнение
OLMo 2 32b — новая перспективная ИИ-модель с открытым исходным кодом

Автор:

OLMo 2 32b — новая перспективная ИИ-модель с открытым исходным кодом

Команда разработчиков AllenAI выпустила новую малую языковую модель OLMo 2 32b.

Содержание: Введение Особенности OLMo 2 32b Выводы Введение Некоммерческий исследовательский институт искусственного интеллекта AllenAI (Ai2) 13 марта 2025 года выпустил в открытые источники свою новую ИИ-модель OLMo 2 с 32 миллиардами параметров. По заявлениям разработчиков, OLMo 2 32b превосходит передовую нейросеть GPT-4o mini, а также сравнима с моделями Gemma 3 27b и Qwen 2.5 32b. Параметры модели OLMo 2 32b в разных бенчмарках в сравнении с популярными коммерческими моделями. Источник: AllenAI. Особенности OLMo 2 32b В отличие от других популярных моделей ИИ с открытым исходным кодом, вроде серии Llama* или Gemma, разработчики команды AllenAI поделились с сообществом не только кодом, но и наборами данных обучения (набор Dolmino на 843 миллиарда токенов), технической документацией, весовыми коэффициентами и т.д. Благодаря этому, команда обеспечивает полную прозрачность своего проекта, не скрывая какой-либо информации о моделях серии OLMo 2 от своих пользователей, а также предоставляя правдивые характеристики. При обучении OLMo 2 32b использовался так называемый трехфазный подход. На первой фазе модель изучила языковые шаблоны из 3,9 триллионов токенов. На втором этапе OLMo 2 32b изучила технические документы и академический контент. На третьем этапе ИИ освоила следование инструкциям с использованием фреймворка Tulu 3.1, который сочетает в себе контролируемые и подкрепляемые подходы к обучению языковых моделей. Благодаря такому формату обучения, модель OLMo 2 32b не только сравнима по производительности с передовыми LLM с малым количеством параметров, но и потребляет всего треть вычислительных ресурсов системы при локальном развертывании.  График производительности разных моделей OLMo в сравнении с популярными малыми LLM. Источник: AllenAI. Также разработчики из AllenAI рассказали, как разрабатывалась и обучалась OLMo 2 32b. Чтобы эффективно управлять процессом обучения, команда создала особую программную систему OLMo-core, которая способна эффективно координировать работу нескольких вычислительных систем. В качестве вычислительного устройства для обучения OLMo 2 использовалась Augusta AI — суперкомпьютере из 160 узлов на базе ИИ-ускорителей Nvidia H100. За счет этой системы, разработчикам удалось достигнуть скорости обработки данных до 1800 токенов в секунду на 1 GPU. Разработчики AllenAI в ближайшем будущем начнут расширять спектр возможностей нейросети OLMo 2 32b, а также оптимизируют ее способность выстраивать более точные логические цепочки. Помимо версии с 32 миллиардами параметров, в серию OLMo 2 также входят модели с 7 и 13 миллиардами параметров — все версии ИИ OLMo 2 доступны на сайте команды AllenAI и на платформе Hugging Face.  Выводы На фоне нарастающего ИИ-тренда, на рынке стали выходить модели не только от крупных западных и китайских разработчиков, но и от малоизвестных стартапов, что наглядно демонстрирует выход OLMo 2 32b от команды AllenAI. Конечно, на данный момент OLMo 2 32b не может сравниться по производительности с DeepSeek R1 или GPT-4.5, однако, появление новых игроков в индустрии будет увеличивать конкуренцию, что положительно скажется на частоте появления новых LLM.  *LLAMA — проект Meta Platforms Inc.**, деятельность которой в России признана экстремистской и запрещена **Деятельность Meta Platforms Inc. в России признана экстремистской и запрещена

OLMo 2 32b — новая перспективная ИИ-модель с открытым исходным кодом

~ 3 мин
176
Простой
Новости
OLMo 2 32b — новая перспективная ИИ-модель с открытым исходным кодом
Содержание:

Введение

Некоммерческий исследовательский институт искусственного интеллекта AllenAI (Ai2) 13 марта 2025 года выпустил в открытые источники свою новую ИИ-модель OLMo 2 с 32 миллиардами параметров. По заявлениям разработчиков, OLMo 2 32b превосходит передовую нейросеть GPT-4o mini, а также сравнима с моделями Gemma 3 27b и Qwen 2.5 32b.

Параметры модели OLMo 2 32b
Параметры модели OLMo 2 32b в разных бенчмарках в сравнении с популярными коммерческими моделями. Источник: AllenAI.

Особенности OLMo 2 32b

В отличие от других популярных моделей ИИ с открытым исходным кодом, вроде серии Llama* или Gemma, разработчики команды AllenAI поделились с сообществом не только кодом, но и наборами данных обучения (набор Dolmino на 843 миллиарда токенов), технической документацией, весовыми коэффициентами и т.д. Благодаря этому, команда обеспечивает полную прозрачность своего проекта, не скрывая какой-либо информации о моделях серии OLMo 2 от своих пользователей, а также предоставляя правдивые характеристики. При обучении OLMo 2 32b использовался так называемый трехфазный подход. На первой фазе модель изучила языковые шаблоны из 3,9 триллионов токенов. На втором этапе OLMo 2 32b изучила технические документы и академический контент. На третьем этапе ИИ освоила следование инструкциям с использованием фреймворка Tulu 3.1, который сочетает в себе контролируемые и подкрепляемые подходы к обучению языковых моделей. Благодаря такому формату обучения, модель OLMo 2 32b не только сравнима по производительности с передовыми LLM с малым количеством параметров, но и потребляет всего треть вычислительных ресурсов системы при локальном развертывании. 

График производительности разных моделей OLMo
График производительности разных моделей OLMo в сравнении с популярными малыми LLM. Источник: AllenAI.

Также разработчики из AllenAI рассказали, как разрабатывалась и обучалась OLMo 2 32b. Чтобы эффективно управлять процессом обучения, команда создала особую программную систему OLMo-core, которая способна эффективно координировать работу нескольких вычислительных систем. В качестве вычислительного устройства для обучения OLMo 2 использовалась Augusta AI — суперкомпьютере из 160 узлов на базе ИИ-ускорителей Nvidia H100. За счет этой системы, разработчикам удалось достигнуть скорости обработки данных до 1800 токенов в секунду на 1 GPU. Разработчики AllenAI в ближайшем будущем начнут расширять спектр возможностей нейросети OLMo 2 32b, а также оптимизируют ее способность выстраивать более точные логические цепочки. Помимо версии с 32 миллиардами параметров, в серию OLMo 2 также входят модели с 7 и 13 миллиардами параметров — все версии ИИ OLMo 2 доступны на сайте команды AllenAI и на платформе Hugging Face. 

Выводы

На фоне нарастающего ИИ-тренда, на рынке стали выходить модели не только от крупных западных и китайских разработчиков, но и от малоизвестных стартапов, что наглядно демонстрирует выход OLMo 2 32b от команды AllenAI. Конечно, на данный момент OLMo 2 32b не может сравниться по производительности с DeepSeek R1 или GPT-4.5, однако, появление новых игроков в индустрии будет увеличивать конкуренцию, что положительно скажется на частоте появления новых LLM. 

*LLAMA — проект Meta Platforms Inc.**, деятельность которой в России признана экстремистской и запрещена

**Деятельность Meta Platforms Inc. в России признана экстремистской и запрещена
Автор: Serverflow Serverflow
Поделиться

Комментарии 0

Написать комментарий
Сейчас тут ничего нет. Ваш комментарий может стать первым.

Написать отзыв

До 6 фото, размером до 12Мб каждое
Мы получили ваш отзыв!

Он появится на сайте после модерации.

Написать комментарий

Комментарий появится на сайте после предварительной модерации

До 6 фото, размером до 12Мб каждое
Мы получили ваш отзыв!

Он появится на сайте после модерации.

Мы свяжемся с вами утром

График работы: Пн-Пт 10:00-19:00 (по МСК)

Обработаем вашу заявку
в ближайший рабочий день

График работы: Пн-Пт 10:00-19:00 (по МСК)