Top.Mail.Ru
Qualcomm показала ИИ-стойку с ускорителями AI200 на выставке MWC 2026 | Блог Serverflow Скачать
прайс-лист
Бесплатная
доставка по РФ
Бонус за
обратную связь
Интернет-магазин
Серверного оборудования
8 (800) 222-70-01 Консультация IT-специалиста Сравнение

Qualcomm показала ИИ-стойку с ускорителями AI200 на выставке MWC 2026

~ 2 мин
41
Простой
Новости
Qualcomm показала ИИ-стойку с ускорителями AI200 на выставке MWC 2026

Введение

На выставке MWC Barcelona 2026 компания Qualcomm впервые показала готовую к развертыванию инфраструктуру для ИИ-инференса на базе ИИ-ускорителей AI200 собственной разработки. Решение поддерживает 43 ТБ памяти LPDDR5 и позволяет выполнять локальное развертывание больших языковых моделей объемом до 1 триллиона параметров. Демонстрация этой передовой стойки отражает эволюцию компании Qualcomm от производителя чипов для смартфонов и ноутбуков в сторону ИИ-систем корпоративного класса

Подробнее о стойке Qualcomm AI200

ИИ-ускорители Qualcomm AI200 на базе NPU Hexagon обеспечивают 768 ГБ памяти LPDDR5 на одну PCIe-карту, что значительно превышает показатели большинства современных GPU для ЦОД. Выбор в пользу LPDDR вместо сверхбыстрой HBM был сделан для снижения стоимости решений и минимизации энергопотребления при сохранении огромной емкости. Решение поддерживает форматы вычислений INT2, INT4, INT8, INT16, FP8 и FP16, что позволяет выполнять широкий спектр операций с искусственным интеллектом. На одну вычислительную стойку на базе Qualcomm AI200 приходится до 72 ИИ-ускорителей, объединенных через высокоскоростные PCIe-коммутаторы, общий объем памяти составляет 43 ТБ. Такой внушительный объем памяти позволяет работать с самыми крупными флагманскими ИИ-моделями, включая те, что приближаются к 1 триллиону параметров. В рамках живого показа на стенде запущена генеративная модель с 350 миллиардами параметров, работающая на одной плате AI200, что наглядно иллюстрирует возможности платформы по обработке сверхбольших нейросетей в масштабе одного ускорителя. Посетители выставки MWC сообщают, что в роли хоста системы выступает центральный процессор AMD EPYC, однако не раскрывается, какой именно это чип — предположительно, он входит в семейство EPYC 9005. Энергопотребление системы достигает 140 кВт, а для ее охлаждения используется жидкостная система охлаждения.

Характеристики ИИ-стоек Qualcomm с ускорителями AI200
Характеристики ИИ-стоек Qualcomm на базе NPU-ускорителей AI200. Источник: Qualcomm.

Отдельное внимание уделено взаимодействию компонентов на системном уровне. В декабре прошлого года Qualcomm завершила приобретение Alphawave Semi, что добавило в портфель компании ключевые технологии для высокоскоростного проводного соединения карт на базе специализированных кремниевых решений и чиплетных интерфейсов. Эти наработки позволяют создавать каналы передачи данных с высокой пропускной способностью, необходимые для связывания вычислительных узлов внутри стойки и между стойками.

Вычислительная нода ИИ-стойки Qualcomm с ускорителями AI200
Вычислительная нода ИИ-стойки Qualcomm на базе ИИ-ускорителей AI200. Источник: X.

Управление всей этой инфраструктурой берет на себя пакет Qualcomm AI Infrastructure Management Suite, который уже применяется в коммерческих ЦОД компании HUMAIN. Этот софт отвечает за выделение ресурсов, мониторинг состояния, оркестрацию задач и автоматическое восстановление при сбоях. Благодаря ему развертывание и эксплуатация сотен ускорителей превращаются из набора изолированных операций в централизованно управляемый процесс. Аппаратное обеспечение, средства подключения и программный слой вместе образуют законченную платформу, готовую к интеграции в существующие и новые дата-центры.
ИИ-стойка Qualcomm с NPU-ускорителями AI200 на MWC 2026
ИИ-стойка AI200 на конференции MWC 2026. Источник: X.

Выводы

Демонстрация на MWC подтверждает, что Qualcomm  переходит от теории к практике в создании инфраструктуры для масштабируемого ИИ-вывода. Стойка AI200 с 43 ТБ памяти и поддержкой моделей до триллиона параметров показывает, что компания делает ставку не на отдельные ускорители, а на целостные системы уровня стойки, где каждый компонент сбалансирован: память не становится узким местом, межсоединения не ограничивают поток данных, а софт позволяет управлять этой экосистемой без лишней мороки.
Автор: Serverflow Serverflow
Поделиться

Комментарии 0

Написать комментарий
Сейчас тут ничего нет. Ваш комментарий может стать первым.
Написать отзыв
До 6 фото, размером до 12Мб каждое
Мы получили ваш отзыв!

Он появится на сайте после модерации.

Написать комментарий

Комментарий появится на сайте после предварительной модерации

До 6 фото, размером до 12Мб каждое
Мы получили ваш отзыв!

Он появится на сайте после модерации.

Мы свяжемся с вами утром

График работы: Пн-Пт 10:00-18:30 (по МСК)

Обработаем вашу заявку
в ближайший рабочий день

График работы: Пн-Пт 10:00-18:30 (по МСК)