Top.Mail.Ru
MiniMax M2.7 вышла в open-source — долгожданная модель для агентной разработки | Блог Serverflow Скачать
прайс-лист
Бесплатная
доставка по РФ
Бонус за
обратную связь
Интернет-магазин
Серверного оборудования
8 (800) 222-70-01 Консультация IT-специалиста Сравнение

MiniMax M2.7 вышла в open-source — долгожданная модель для агентной разработки

~ 2 мин
34
Простой
Новости
MiniMax M2.7 вышла в open-source — долгожданная модель для агентной разработки

Введение

Китайская компания MiniMax официально открыла исходный код своей флагманской модели MiniMax M2.7 под лицензией MIT, представленной месяцем ранее в закрытом виде. Релиз состоялся 12 апреля, и теперь веса модели доступны для локального развертывания через экосистему открытых фреймворков, включая поддержку со стороны NVIDIA. Ключевая особенность M2.7 — высочайшая эффективность в агентной среде: она способна выстраивать сложные агентные рабочие процессы, управлять командами агентов и автономно оптимизировать как свой обучающий процесс, так и внутренние рабочие процессы.

Подробнее о MiniMax M2.7

MiniMax M2.7 построена на архитектуре Mixture-of-Experts (MoE) с общим количеством параметров 229 миллиардов, из которых на каждый токен активируется лишь около 10-15 миллиардов. Модель содержит 256 экспертов, при обработке задействуются 8 наиболее релевантных, и состоит из 62 слоев с multihead-вниманием и Rotary Position Embeddings (RoPE). Контекстное окно составляет 204 800 токенов, чего достаточно для единовременной обработки целых кодовых баз, длинных логов и масштабных спецификаций. Несжатая версия BF16 занимает около 457 ГБ видеопамяти, однако квантизованные варианты (например, GGUF) позволяют запускать модель на устройствах со 128 ГБ памяти. Вычислительная скорость достигает 150 токенов в секунду, а в API-режиме — стабильные 60 токенов в секунду.

MiniMax M2.7 использует гибридную схему внимания: GA (глобальное внимание) и SWA в соотношении 1:5, что обеспечивает эффективную обработку сверхдлинных контекстов. Модель нативно поддерживает Interleaved Thinking — способность размышлять между раундами вызовов инструментов, анализируя результаты и принимая решения о дальнейших действиях. Благодаря этому MiniMax M2.7 особенно сильна в длинных агентных сценариях, где требуется многократное взаимодействие со средой. Также MiniMax M2.7 использует системы управления исследовательскими агентами, которые взаимодействуют с различными командами, пайплайнами данных, обучающей инфраструктурой и постоянной памятью.По оценкам компании, в отдельных сценариях MiniMax M2.7 берет на себя от 30% до 50% рабочего процесса. Кроме того, модель автономно способна выполнять более 100 раундов итеративной оптимизации внутреннего фреймворка, последовательно анализируя траектории сбоев, модифицируя код и сравнивая результаты — итоговый прирост производительности на внутренних оценочных наборах составил около 30%.

Архитектура модели MiniMax M2.7
Архитектура модели MiniMax M2.7. Источник: Hugging Face.

MiniMax M2.7 также нативно поддерживает Agent Teams — мультиагентное взаимодействие, при котором модель одновременно удерживает несколько ролей, ведет состязательные рассуждения, соблюдает протоколы и автономно принимает решения в рамках сложных конечных автоматов. Это позволяет разбивать длинные задачи на подзадачи и координировать их параллельное выполнение без внешних оркестрирующих фреймворков.

На бенчмарке SWE-Pro MiniMax M2.7 набрала 56,22%, практически сравнявшись с GPT-5.3-Codex и приблизившись к лучшим результатам Claude Opus 4.6. В сценариях комплексной реализации проектов VIBE-Pro модель показала 55,6%, а на Terminal Bench 2, оценивающем глубокое понимание системного уровня, — 57,0%. На SWE-bench Verified MiniMax M2.7 достигает 78% (против 55% у Opus 4.6). В MLE Bench Lite, наборе из 22 задач по машинному обучению, модель за три 24-часовых забега показала средний процент медалей 66,6%, сравнявшись с Gemini 3.1 и уступив лишь Opus 4.6 (75,7%) и GPT-5.4 (71,2%). Лучший результат составил 9 золотых, 5 серебряных и 1 бронзовую медаль.

Результаты тестирования MiniMax M2.7
Результаты тестирования MiniMax M2.7. Источник: Hugging Face.

Несмотря на заявленный open-source, лицензия MiniMax M2.7 накладывает ограничения: некоммерческое использование разрешено на условиях MIT-подобного соглашения, однако любое коммерческое применение требует предварительного письменного разрешения MiniMax. Это вызвало дискуссии в сообществе: ряд разработчиков отмечает, что модель фактически не является полностью открытой, а представляет собой проприетарную модель с коммерческими барьерами.

Выводы

MiniMax M2.7 — это серьезная заявка китайской компании на место в высшей лиге агентных моделей. Результаты на SWE-Pro, VIBE-Pro и Terminal Bench 2 ставят ее в один ряд с GPT-5.4 и Claude Opus 4.6, причем по соотношению цена/производительность MiniMax M2.7 выглядит крайне привлекательно. Более того, встроенная поддержка Agent Teams и стабильность на длинных горизонтах выгодно отличают ее от многих конкурентов. Тем не менее, без полноценной коммерческой лицензии модель рискует остаться нишевым инструментом для исследователей, а не стать массовой платформой для построения агентных приложений.
Автор: Serverflow Serverflow
Поделиться

Комментарии 0

Написать комментарий
Сейчас тут ничего нет. Ваш комментарий может стать первым.
Написать отзыв
До 6 фото, размером до 12Мб каждое
Мы получили ваш отзыв!

Он появится на сайте после модерации.

Написать комментарий

Комментарий появится на сайте после предварительной модерации

До 6 фото, размером до 12Мб каждое
Мы получили ваш отзыв!

Он появится на сайте после модерации.

Мы свяжемся с вами утром

График работы: Пн-Пт 10:00-18:30 (по МСК)

Обработаем вашу заявку
в ближайший рабочий день

График работы: Пн-Пт 10:00-18:30 (по МСК)