Китайский ИИ-стартап Z-ai представил новое поколение своей флагманской языковой моделью GLM-4.7, которая стала значительным шагом вперед по сравнению с прошлым поколением GLM-4.6. Модель GLM-4.7 прежде всего ориентирована на задачи программирования, работы с агентами и сложных рассуждений, поэтому обновление затрагивает не только сухие показатели в бенчмарках, но и приносит практическую пользу для разработчиков и ИИ-энтузиастов: стабильность в длинных цепочках действий, более аккуратную работу с инструментами и лучшую интеграцию в реальные рабочие процессы разработчиков.
Подробнее о GLM-4.7
Нейросеть GLM-4.7 поставляется в двух версиях: полноразмерная модель на 358 миллиардов параметров и квантизированная FP8-версия для локального развертывания. В задачах базового кодирования GLM-4.7 демонстрирует уверенный прирост по всем ключевым направлениям. В многоязычном агентном программировании и терминальных сценариях модель показывает более высокие результаты на SWE-bench 73,8%, + 5,8%), SWE-bench Multilingual (66,7%, + 12,9%) и Terminal Bench 2.0 (41%, + 16,5%) , что указывает на улучшенное понимание кода, командной строки и контекста выполнения. Существенно доработан механизм рассуждения перед действием, благодаря чему модель стабильнее решает сложные задачи внутри агентных фреймворков вроде Claude Code, Kilo Code, Cline и Roo Code.
Отдельное внимание уделено вайб-кодингу. GLM-4.7 заметно лучше справляется с генерацией пользовательских интерфейсов, создавая более чистые и современные веб-страницы, а также визуально выверенные презентации. Улучшилось чувство компоновки: элементы размещаются точнее, размеры выглядят логичнее, а итоговый результат ближе к тому, что ожидают дизайнеры и фронтенд-разработчики. Работа с инструментами также получила серьезный апгрейд. GLM-4.7 эффективнее использует внешние вызовы и демонстрирует рост производительности в специализированных тестах, включая τ²-Bench и сценарии веб-навигации через BrowseComp.
Результаты тестирования производительности GLM-4.7. Источник: .
В области сложных рассуждений модель GLM-4.7 усилила свои позиции в математике и логике. Результаты теста HLE (42,8 %, +12,4 %) показывают значительный прирост по сравнению с предыдущей версией GLM-4.6, и на практике это выражается в более последовательных и устойчивых рассуждениях. Дополнительные улучшения заметны и в смежных сценариях — от диалогов и творческого письма до ролевых взаимодействий.
GLM-4.7 развивает концепцию чередующегося мышления, добавляя сохраненное мышление и управление им на уровне хода. Это позволяет модели помнить и переиспользовать уже выполненные рассуждения в многошаговых задачах, снижая количество логических разрывов. Пользователь, в свою очередь, может балансировать между скоростью и точностью, отключая сложное мышление для простых запросов и включая его там, где требуется максимальная надежность.
Пайплайн мышления ИИ-модели GLM-4.7. Источник: .
Выводы
GLM-4.7 — это не просто очередное улучшение показателей в таблицах бенчмарков, ведь теперь топовая китайская LLM стала более зрелым инструментом для повседневной разработки. Модель стала стабильнее в агентных сценариях, аккуратнее в работе с интерфейсами и сильнее в логических рассуждениях. В совокупности это делает GLM-4.7 серьезным кандидатом на роль универсального помощника для программистов, где ценится не только формальная производительность, но и то, насколько комфортно и предсказуемо модель встраивается в реальный рабочий процесс. Веса GLM-4.7 уже лежат на Hugging Face и ModelScope, а развертывание доступно через контейнеры Docker.
Продолжная использовать наш сайт, вы даете согласие на использование файлов Cookie, пользовательских данных (IP-адрес, вид операционной системы, тип браузера, сведения о местоположении, источник, откуда пришел на сайт пользователь, с какого сайта или по какой рекламе, какие страницы
открывает и на какие страницы нажимает пользователь) в целях функционирования сайта, проведения статистических исследований и обзоров. Если вы не хотите, чтобы ваши данные обрабатывались, покиньте сайт.