Китайский стартап Z.ai, прославившийся выпуском открытых LLM GLM-4.5 и GLM-4.6, которые по ряду опережают флагманские решения OpenAI, Google, DeepSeek и Alibaba, работает над новым вектором развития. Компания впервые заговорила о создании облегченных, но при этом производительных языковых моделей GLM.
Подробнее о компактных моделях GLM
До недавнего времени Z.ai делал ставку на крупные системы объемом от 110 до 358 млрд параметров. Эти модели показали себя как одни из самых точных и универсальных в open-source сегменте, но вместе с тем они стали крайне сложными для локального тестирования, доработки и внедрения из-за огромных вычислительных затрат. На этом фоне стартап впервые задумался о переходе к более компактной архитектуре.
Директор по продуктам и стратегии компании, Цзысюань Ли, рассказал, что команда начала активные эксперименты с уменьшением масштаба моделей до 9-30 миллиардов параметров. Переход в диапазон 9B-30B дает сразу несколько преимуществ. Такие модели можно развернуть локально на продвинутых ПК или рабочих станциях, а их обучение и тестирование не требуют многомиллионных бюджетов. По данным инсайдеров, легкие версии GLM могут появиться уже к концу 2025 года. Если это подтвердится, модели GLM при использовании квантизации можно будет запускать даже на видеокартах уровня 12–16 ГБ VRAM для ноутбуков и пользовательских ПК.
Выводы
Z.ai фактически готовит второе поколение своих архитектур — компактное, более доступное и гибкое для локальных задач. Если компания выпустит 9-миллиардные и 30-миллиардные модели в ближайшее, то разработчики получат доступ к топовым нейросетям в компактном формате, который можно развернуть без топовых GPU.
Продолжная использовать наш сайт, вы даете согласие на использование файлов Cookie, пользовательских данных (IP-адрес, вид операционной системы, тип браузера, сведения о местоположении, источник, откуда пришел на сайт пользователь, с какого сайта или по какой рекламе, какие страницы
открывает и на какие страницы нажимает пользователь) в целях функционирования сайта, проведения статистических исследований и обзоров. Если вы не хотите, чтобы ваши данные обрабатывались, покиньте сайт.