Nvidia DGX Station и DGX Spark — ваши личные LLM-суперкомпьютеры
MoE-модель (Mixture of Experts): что это и как работает архитектура AI
Curiosity-driven Exploration: новый подход к обучению с подкреплением для “любопытных” LLM
Дебют AMD в MLPerf Training 5.0 — MI325 теперь эффективнее H200
AllenAI выпустила olmOCR 2: новый конкурент топовых OCR-нейросетей
Tencent представила HunyuanOCR: новая веха в мультимодальном распознавании текста
DeepSeekMath-V2: новый прорыв DeepSeek в математических задачах
Аналог GPUDirect от AMD: как работает ROCm RDMA и Peer-to-Peer
AMD готовит Radeon AI Pro R9700S и R9600D для ЦОД и рабочих станций
GPUDirect от NVIDIA: Ускорение обмена данными для AI и HPC‑инфраструктур
Что такое DGX-OS: как устроена серверная ОС NVIDIA для ИИ и HPC-нагрузок
Что такое параметры модели: почему DeepSeek бывает на 7B, 70B и 405B
NVIDIA DGX Spark: мощный старт, но противоречивые тесты
Nvidia HGX, DGX и MGX: что это такое и в чем их отличия?
Что такое NVIDIA AI Enterprise и зачем это бизнесу.
Что такое структурная разреженность и зачем она нужна NVIDIA
Гид по выбору GPU Nvidia — как не потеряться в каталоге в 2025
TensorRT: ускорение инференса на GPU NVIDIA Blackwell, Hopper и Ampere
Что такое Triton Inference Server и зачем он нужен в продакшене LLM
Подробно о ROCm 7.0 для AMD GPU: что нового и стоит ли обновляться
vLLM вводит поддержку Intel Arc Pro B60
Полное руководство по лицензированию технологии NVIDIA vGPU