Top.Mail.Ru
NVIDIA Context Memory Storage Platform — новая архитектура хранения данных для масштабного ИИ-вывода | Новости ServerFlow Скачать
прайс-лист
Бесплатная
доставка по РФ
Скидка
за отзыв!
Distribution of
Server Components
8 (800) 222-70-01 Консультация IT-специалиста Сравнение

Nvidia Context Memory Storage Platform — новая архитектура хранения данных для масштабного ИИ-вывода

~ 2 мин
171
Простой
Новости
Nvidia Context Memory Storage Platform — новая архитектура хранения данных для масштабного ИИ-вывода

Введение

На CES 2026 компания Nvidia также представила Context Memory Storage Platform — принципиально новый класс инфраструктуры хранения данных, ориентированный на задачи инференса искусственного интеллекта. Платформа создана для работы с экстремально большими объемами контекста и нацелена на поддержку гигамасштабного логического вывода, ускорение агентных систем и эффективное масштабирование ИИ-нагрузок.

Подробнее о Nvidia Context Memory Storage Platform

Inference Context Memory Storage Platform расширяет доступную память для ИИ-агентов, обеспечивая высокоскоростной обмен контекстом между узлами и кластерами в масштабе стойки. Это позволяет увеличить количество обрабатываемых токенов в секунду до пяти раз и одновременно добиться пятикратного роста энергоэффективности по сравнению с традиционными системами хранения. Платформа рассчитана на агентные ИИ-системы с длительным контекстом, где критически важны как кратковременная, так и долговременная память, а также минимальная задержка при передаче данных между вычислительными компонентами.

Архитектура Context Memory Storage Platform базируется на DPU-чипе NVIDIA BlueField, который выполняет операции ускорения обработки KV-кэша, устраняет избыточные метаданные, сокращает время на перемещение данных и обеспечивает безопасный изолированный доступ к узлам графического процессора.

Кроме того, существенную роль в работе платформы Context Memory Storage Platform играет NVIDIA Spectrum-X Ethernet, который обеспечивает высокую пропускную способность на графический процессор и низкие задержки при обмене контекстом. Благодаря этому многоэтапные ИИ-агенты получают более быстрый отклик, а ИИ-фабрики — возможность эффективно масштабировать вывод с использованием длинного контекста и взаимодействия нескольких агентов. По сути, NVIDIA формирует новую модель хранения, тесно интегрированную с вычислительной и сетевой инфраструктурой для ИИ.

Выводы

Inference Context Memory Storage Platform отражает переход NVIDIA к переосмыслению хранения данных в эпоху агентного искусственного интеллекта. Платформа устраняет ограничения традиционных хранилищ, расширяет контекстную память ИИ-систем и повышает общую эффективность вычислений. В сочетании с BlueField-4 и Spectrum-X Ethernet она закладывает основу для следующего этапа развития ИИ-инфраструктур, где долговременная память, высокая пропускная способность и масштабируемость становятся ключевыми факторами производительности.
Автор: Serverflow Serverflow
Поделиться

Комментарии 0

Написать комментарий
Сейчас тут ничего нет. Ваш комментарий может стать первым.
Написать отзыв
До 6 фото, размером до 12Мб каждое
Мы получили ваш отзыв!

Он появится на сайте после модерации.

Написать комментарий

Комментарий появится на сайте после предварительной модерации

До 6 фото, размером до 12Мб каждое
Мы получили ваш отзыв!

Он появится на сайте после модерации.

Мы свяжемся с вами утром

График работы: Пн-Пт 10:00-18:30 (по МСК)

Обработаем вашу заявку
в ближайший рабочий день

График работы: Пн-Пт 10:00-18:30 (по МСК)