Китайская компания MiniMax официально открыла исходный код своей флагманской модели MiniMax M2.7 под лицензией MIT, представленной месяцем ранее в закрытом виде. Релиз состоялся 12 апреля, и теперь веса модели доступны для локального развертывания через экосистему открытых фреймворков, включая поддержку со стороны NVIDIA. Ключевая особенность M2.7 — высочайшая эффективность в агентной среде: она способна выстраивать сложные агентные рабочие процессы, управлять командами агентов и автономно оптимизировать как свой обучающий процесс, так и внутренние рабочие процессы.
Подробнее о MiniMax M2.7
MiniMax M2.7 построена на архитектуре Mixture-of-Experts (MoE) с общим количеством параметров 229 миллиардов, из которых на каждый токен активируется лишь около 10-15 миллиардов. Модель содержит 256 экспертов, при обработке задействуются 8 наиболее релевантных, и состоит из 62 слоев с multihead-вниманием и Rotary Position Embeddings (RoPE). Контекстное окно составляет 204 800 токенов, чего достаточно для единовременной обработки целых кодовых баз, длинных логов и масштабных спецификаций. Несжатая версия BF16 занимает около 457 ГБ видеопамяти, однако квантизованные варианты (например, GGUF) позволяют запускать модель на устройствах со 128 ГБ памяти. Вычислительная скорость достигает 150 токенов в секунду, а в API-режиме — стабильные 60 токенов в секунду.
MiniMax M2.7 использует гибридную схему внимания: GA (глобальное внимание) и SWA в соотношении 1:5, что обеспечивает эффективную обработку сверхдлинных контекстов. Модель нативно поддерживает Interleaved Thinking — способность размышлять между раундами вызовов инструментов, анализируя результаты и принимая решения о дальнейших действиях. Благодаря этому MiniMax M2.7 особенно сильна в длинных агентных сценариях, где требуется многократное взаимодействие со средой. Также MiniMax M2.7 использует системы управления исследовательскими агентами, которые взаимодействуют с различными командами, пайплайнами данных, обучающей инфраструктурой и постоянной памятью.По оценкам компании, в отдельных сценариях MiniMax M2.7 берет на себя от 30% до 50% рабочего процесса. Кроме того, модель автономно способна выполнять более 100 раундов итеративной оптимизации внутреннего фреймворка, последовательно анализируя траектории сбоев, модифицируя код и сравнивая результаты — итоговый прирост производительности на внутренних оценочных наборах составил около 30%.
Архитектура модели MiniMax M2.7. Источник: .
MiniMax M2.7 также нативно поддерживает Agent Teams — мультиагентное взаимодействие, при котором модель одновременно удерживает несколько ролей, ведет состязательные рассуждения, соблюдает протоколы и автономно принимает решения в рамках сложных конечных автоматов. Это позволяет разбивать длинные задачи на подзадачи и координировать их параллельное выполнение без внешних оркестрирующих фреймворков.
На бенчмарке SWE-Pro MiniMax M2.7 набрала 56,22%, практически сравнявшись с GPT-5.3-Codex и приблизившись к лучшим результатам Claude Opus 4.6. В сценариях комплексной реализации проектов VIBE-Pro модель показала 55,6%, а на Terminal Bench 2, оценивающем глубокое понимание системного уровня, — 57,0%. На SWE-bench Verified MiniMax M2.7 достигает 78% (против 55% у Opus 4.6). В MLE Bench Lite, наборе из 22 задач по машинному обучению, модель за три 24-часовых забега показала средний процент медалей 66,6%, сравнявшись с Gemini 3.1 и уступив лишь Opus 4.6 (75,7%) и GPT-5.4 (71,2%). Лучший результат составил 9 золотых, 5 серебряных и 1 бронзовую медаль.
Результаты тестирования MiniMax M2.7. Источник: .
Несмотря на заявленный open-source, лицензия MiniMax M2.7 накладывает ограничения: некоммерческое использование разрешено на условиях MIT-подобного соглашения, однако любое коммерческое применение требует предварительного письменного разрешения MiniMax. Это вызвало дискуссии в сообществе: ряд разработчиков отмечает, что модель фактически не является полностью открытой, а представляет собой проприетарную модель с коммерческими барьерами.
Выводы
MiniMax M2.7 — это серьезная заявка китайской компании на место в высшей лиге агентных моделей. Результаты на SWE-Pro, VIBE-Pro и Terminal Bench 2 ставят ее в один ряд с GPT-5.4 и Claude Opus 4.6, причем по соотношению цена/производительность MiniMax M2.7 выглядит крайне привлекательно. Более того, встроенная поддержка Agent Teams и стабильность на длинных горизонтах выгодно отличают ее от многих конкурентов. Тем не менее, без полноценной коммерческой лицензии модель рискует остаться нишевым инструментом для исследователей, а не стать массовой платформой для построения агентных приложений.
Сейчас тут ничего нет. Ваш комментарий может стать первым.
Скидка 1 500 ₽ или бесплатная доставка - уже сейчас 🔥
Мы ценим обратную связь от клиентов. При оформлении заказа вы можете сообщить о своём намерении поделиться впечатлением о работе ServerFlow после получения товара.
* - скидка предоставляется при покупке от 30 000 рублей, в ином случае предусмотрена бесплатная доставка до ПВЗ СДЭК.
Продолжная использовать наш сайт, вы даете согласие на использование файлов Cookie, пользовательских данных (IP-адрес, вид операционной системы, тип браузера, сведения о местоположении, источник, откуда пришел на сайт пользователь, с какого сайта или по какой рекламе, какие страницы
открывает и на какие страницы нажимает пользователь) в целях функционирования сайта, проведения статистических исследований и обзоров. Если вы не хотите, чтобы ваши данные обрабатывались, покиньте сайт.
При оформлении заказа в ServerFlow вы можете сообщить о намерении оставить отзыв о нашей работе после получения товара.
Нам важно ваше честное мнение. Оно помогает развивать сервис и даёт другим клиентам представление о нашей работе.
Вы можете оставить отзыв на удобной для вас платформе:
Google Maps
2GIS
Яндекс Карты
Как работает акция
Применяя промокод, вы подтверждаете намерение поделиться впечатлением о работе ServerFlow после получения заказа. Мы применяем бонус уже к текущему заказу в знак благодарности за обратную связь.
Условия акции:
скидка 1 500 ₽ при заказе от 30 000 ₽
или бесплатная доставка* при заказе до 30 000 ₽
* Бесплатная доставка заказа осуществляется до ПВЗ СДЭК.