Цена с учетом расширенной гарантии
Цена включает НДС 7%
Узнать сроки доставки
40-60 раб. дней —
| Тип | Новые |
| Основная задача | Обучение моделей / Инференс / Дообучение моделей / RAG-системы / Анализ данных / Научные расчеты (HPC) |
| Процессор (CPU) | Intel Xeon |
| Видеокарта (GPU) | NVIDIA A100 |
| Количество GPU, шт | 8 |
| Общий объем видеопамяти (VRAM), ГБ | 640 |
| Тип памяти GPU | HBM2e |
| Объем оперативной памяти (RAM), ГБ | 8192 |
| Тип оперативной памяти | DDR4 ECC REG |
| Форм-фактор | 4U |
Конфигурация на базе HGX A100 80GB рассчитана на Обучение моделей (Training), Дообучение моделей (Fine-tuning) и Инференс / Развертывание (Inference), когда важны высокая плотность GPU и быстрый обмен данными между ними. Суммарный объём видеопамяти 640GB позволяет держать крупные модели и оставлять запас под KV-cache, батчи и параллельные сессии.
Связка HGX A100 с NVLink/NVSwitch даёт сильный выигрыш в multi-GPU сценариях, где критична коммуникация между ускорителями при распределении тензоров и градиентов. Это делает платформу уместной для RAG-системы (Retrieval-Augmented Generation) и HPC / Научные расчёты, когда нужно стабильно масштабировать нагрузку на 8 GPU.
Официальное руководство этой линейки прямо указывает модельный ряд G492-ID0 / G492-IL0 как 4U DP SXM4 A100 8 GPU сервер.
Платформа поддерживает процессоры 3rd Generation Intel Xeon Scalable в двухсокетной конфигурации (2× LGA4189, TDP до 270W), память DDR4 только в 32 слотах DIMM (8 каналов), а для накопителей предусмотрены 6× 2.5" Gen4 NVMe/SATA отсека и 2× M.2 PCIe Gen4 x4. Для питания заявлены резервированные БП 3+1 3000W.
| Тип точности | Совокупная мощность восьми A100 SXM |
| FP64 Tensor Core | 156 TFLOPS |
| BF16 / FP16 Tensor Core | 4 992 TFLOPS |
| TF32 Tensor Core | 2 496 TFLOPS |
| INT8 Tensor Core | 9 984 TOPS |
| Модель | Тип квантизации | Требуется VRAM | Совместимость | Примечание |
| DeepSeek-R1-GGUF 685B | Q4_K_M | Примерно 404GB | ✅ | Комфортный запуск в 4-бит на 8×A100 с TP на 8 GPU и контролем контекста и батча, чтобы сохранить запас под KV-cache. |
| Qwen3-235B-A22B-Instruct | Нет | Примерно 471GB | ✅ | Уверенно помещается без квантизации и хорошо подходит для serving и RAG при распределении по 4–8 GPU. |
| Gpt-oss:120b | Нет | Примерно 196GB | ✅ | Можно держать на 2–4 GPU и использовать оставшуюся VRAM под длинный контекст и высокий QPS. |
| ai-sage_GigaChat3-702B-A36B-preview-GGUF | Q4_K_M | Примерно 472GB | ✅ | Стабильно работает в 4-бит на 8 GPU и выдерживает многопоточную нагрузку при аккуратных настройках контекста. |
| Mistral-Large-3-675B-Instruct-2512-GGUF | Q4_K_M | Примерно 407GB | ✅ | Оптимально для крупного inference с запасом под KV-cache и масштабированием по 4–8 GPU для throughput. |
| GLM-4.7-GGUF | Q4_K_M | Примерно 216GB | ✅ | Даёт большой запас по VRAM для длинных сессий и батчей, удобно повышать параллелизм запросов. |
| Модель | Тип | Совместимость | Примечание |
| Stable Diffusion XL 1.0 | Текст в изображение | ✅ | Высокие разрешения и батчи проходят стабильно, а генерацию удобно распараллеливать по нескольким GPU. |
| Flux.2-dev | Текст в изображение | ✅ | Требовательный пайплайн легче вести в multi-GPU режиме и держать высокий throughput на очередях. |
| SD Turbo | Быстрые предпросмотры | ✅ | Подходит для массовых предпросмотров и серийной генерации с высокой параллельностью задач. |
| Kandinsky-5.0-T2I-Lite-sft-Diffusers | Текст в изображение | ✅ | Лёгкий профиль позволяет держать несколько пайплайнов одновременно и увеличивать батчи без дефицита VRAM. |
| Kandinsky-5.0-T2V-Lite-sft-5s-Diffusers | Текст в видео | ✅ | Хорошо масштабируется на очередях коротких роликов при параллельной обработке задач на нескольких GPU. |
| Видеокарта | 8x Nvidia A100 SXM 80GB HBM2e |
| Процессор | 2x Socket P+ (LGA-4189) и Intel Xeon Scalable 3-го поколения |
| Оперативная память | до 8TB DDR4 ECC REG, 32 DIMM |
| SSD накопители | 6× 2.5" Gen4 NVMe/SATA отсека и 2× M.2 PCIe Gen4 x4 |
Если нужна конфигурация на эту платформу под ваши задачи - свяжитесь с менеджером, и мы предложим подходящий вариант под бюджет и требования.
Мы отправляем заказы ведущими транспортными компаниями:
Все отправления тщательно упаковываются и скорейшие сроки передаются в ТК.
Ориентировочные сроки сборки заказов:
В случае если оборудование требуется в срочном порядке сообщите менеджеру и мы организуем приоритетную обработку вашего заказа с учетом выбора тарифа “Экспресс” со стороны ТК.
Оплата заказа доступна после подтверждения менеджером посредством следующих способов оплаты:
ServerFlow — это интернет магазин специализирующийся на продаже Б/У и новой серверной техники. Все наше оборудование проходит строгий процесс предпродажной подготовки. Мы уделяем большое внимание тестированию всех компонентов, чтобы минимизировать вероятность возникновения гарантийных случаев и обеспечить высокое качество продукции.
Также мы можем предложить расширенный срок гарантийных отношений:
Мы верим, что сможем обеспечить наилучший пользовательский опыт и ценим ваше доверие. Если у вас остались дополнительные вопросы, вы можете адресовать их в онлайн чате на сайте или задать в Telegram @serverflow.
ServerFlow активно занимается б/у оборудованием, поэтому мы готовы рассмотреть ваше оборудование в качестве основания для предоставления скидки в рамках “Trade-in”. Чтобы произвести оценку оборудования обратитесь в онлайн чат на сайте или в Telegram @serverflow.
Почему Trade-in в ServerFlow — это удобно:
Поделитесь впечатлением о работе ServerFlow после получения заказа.
* - скидка предоставляется при покупке от 30 000 рублей, в ином случае предусмотрена
бесплатная доставка до ПВЗ СДЭК.
Цена включает НДС 7%
Узнать сроки доставки
40-60 раб. дней —
Мы ценим обратную связь от клиентов. При оформлении заказа вы можете сообщить о своём намерении поделиться впечатлением о работе ServerFlow после получения товара.
* - скидка предоставляется при покупке от 30 000 рублей, в ином случае предусмотрена бесплатная доставка до ПВЗ СДЭК.