Цена с учетом расширенной гарантии
Цена включает НДС 7%
Узнать сроки доставки
40-60 раб. дней —
| Тип | Новые |
| Основная задача | Обучение моделей / Инференс / Дообучение моделей / RAG-системы / Анализ данных / Научные расчеты (HPC) |
| Процессор (CPU) | Intel Xeon |
| Видеокарта (GPU) | NVIDIA H100 |
| Количество GPU, шт | 8 |
| Общий объем видеопамяти (VRAM), ГБ | 640 |
| Тип памяти GPU | HBM3 |
| Объем оперативной памяти (RAM), ГБ | 4096 |
| Тип оперативной памяти | DDR5 ECC REG |
| Форм-фактор | 6U |
HPE Cray XD670 Gen11 - это плотная 5U платформа для Обучения моделей (Training), Дообучения моделей (Fine-tuning) и HPC / Научных расчётов, когда важны масштабирование на 8 GPU и высокая пропускная способность на больших батчах. Эта конфигурация также подходит для Инференса / Развертывания (Inference) и RAG-систем, особенно при параллельных запросах и длинных сессиях.
GPU-профиль H100 (Hopper) даёт ускорение FP16/FP8/INT8 и рассчитан на современные LLM-нагрузки; общий объём видеопамяти - 640GB VRAM (8×80GB). На платформе заявлена поддержка Transformer Engine, что полезно для ускорения типичных AI-пайплайнов.
По охлаждению доступны варианты с воздушным охлаждением и опциональным direct liquid cooling (DLC), что удобно для плотных стоек и энергоэффективных инсталляций.
Платформа (CPU / RAM / SSD): 5U single-node шасси с 2× CPU, для H100-конфигураций заявлена поддержка Intel Xeon Scalable 4-го поколения (Sapphire Rapids). Память - до 32× DDR5 DIMM (до 5600 MT/s), при этом максимум по объёму - до 4 TB (в списке поддерживаемых CPU есть модели с лимитом 4TB памяти). Для накопителей предусмотрено до 8× 2.5" NVMe U.2/U.3 и 2× M.2 RAID SSD (Read-Intensive и Mixed-Use).
| Тип точности | Совокупная мощность восьми H200 SXM |
| FP64 Tensor Core | 536 TFLOPS |
| FP8 Tensor Core | 31 664 TFLOPS |
| BF16 / FP16 Tensor Core | 15 832TFLOPS |
| TF32 Tensor Core | 7 912 TFLOPS |
| INT8 Tensor Core | 31 664 TOPS |
| Модель | Тип квантизации | Требуется VRAM | Совместимость | Примечание |
| DeepSeek-R1-GGUF 685B | Q4_K_M | Примерно 404GB | ✅ | Для стабильного serving используйте tensor parallel на 8 GPU и держите запас VRAM под KV-cache при длинном контексте. |
| Qwen3-235B-A22B-Instruct | Нет | Примерно 471GB | ✅ | Запускается распределённо по 4–8 GPU и хорошо подходит для продакшн-чатов и RAG с высоким throughput. |
| Gpt-oss:120b | Нет | Примерно 196GB | ✅ | Комфортно держать на 2–4 GPU с большим запасом под KV-cache, что помогает масштабировать батчи и параллельные запросы. |
| ai-sage_GigaChat3-702B-A36B-preview-GGUF | Q4_K_M | Примерно 472GB | ✅ | Рекомендуется TP на 8 GPU и аккуратные настройки контекста/батча, чтобы не упираться в VRAM на пиковых нагрузках. |
| Mistral-Large-3-675B-Instruct-2512-GGUF | Q4_K_M | Примерно 407GB | ✅ | Оптимальна для аналитики и reasoning; держите запас под KV-cache, а для throughput масштабируйте TP/PP на несколько GPU. |
| GLM-4.7-GGUF | Q4_K_M | Примерно 216GB | ✅ | Удобно для продакшна при распределении по 4–8 GPU; в 4-бит остаётся запас под длинный контекст и высокий concurrency. |
| Модель | Тип | Совместимость | Примечание |
| Stable Diffusion XL 1.0 | Текст в изображение | ✅ | Высокие разрешения и большие батчи идут уверенно; масштабируйте генерацию по нескольким GPU для максимального throughput. |
| Flux.2-dev | Текст в изображение | ⚠️ | Обычно требует multi-GPU/распараллеливания или offload; на 8×H100 запуск реален, но чувствителен к выбранному пайплайну. |
| SD Turbo | Быстрые предпросмотры | ✅ | Подходит для очень высокой скорости и параллельных очередей; удобно держать высокий concurrency. |
| Kandinsky-5.0-T2I-Lite-sft-Diffusers | Текст в изображение | ✅ | Низкие требования к VRAM дают большой запас под высокое разрешение и батчи, включая параллельные пайплайны. |
| Kandinsky-5.0-T2V-Lite-sft-5s-Diffusers | Текст в видео | ✅ | Хорошо подходит для конвейеров генерации коротких роликов; параллельте задачи по нескольким GPU для очередей. |
| Видеокарта | 8x Nvidia H100 SXM 80GB HBM3 |
| Процессор | 2× Intel Xeon Scalable 4-го |
| Оперативная память | до 4TB DDR5 ECC RDIMM, 32 DIMM-слотах |
| SSD накопители | до до 8× 2.5" NVMe U.2/U.3 и 2× M.2 RAID SSD (Read-Intensive и Mixed-Use) |
Если нужна конфигурация на эту платформу под ваши задачи - свяжитесь с менеджером, и мы предложим подходящий вариант под бюджет и требования.
Мы отправляем заказы ведущими транспортными компаниями:
Все отправления тщательно упаковываются и скорейшие сроки передаются в ТК.
Ориентировочные сроки сборки заказов:
В случае если оборудование требуется в срочном порядке сообщите менеджеру и мы организуем приоритетную обработку вашего заказа с учетом выбора тарифа “Экспресс” со стороны ТК.
Оплата заказа доступна после подтверждения менеджером посредством следующих способов оплаты:
ServerFlow — это интернет магазин специализирующийся на продаже Б/У и новой серверной техники. Все наше оборудование проходит строгий процесс предпродажной подготовки. Мы уделяем большое внимание тестированию всех компонентов, чтобы минимизировать вероятность возникновения гарантийных случаев и обеспечить высокое качество продукции.
Также мы можем предложить расширенный срок гарантийных отношений:
Мы верим, что сможем обеспечить наилучший пользовательский опыт и ценим ваше доверие. Если у вас остались дополнительные вопросы, вы можете адресовать их в онлайн чате на сайте или задать в Telegram @serverflow.
ServerFlow активно занимается б/у оборудованием, поэтому мы готовы рассмотреть ваше оборудование в качестве основания для предоставления скидки в рамках “Trade-in”. Чтобы произвести оценку оборудования обратитесь в онлайн чат на сайте или в Telegram @serverflow.
Почему Trade-in в ServerFlow — это удобно:
Оставьте отзыв о ServerFlow на Яндексе и условия акции будут исполнены
* скидка предоставляется при покупке от 30 000 рублей,
в ином случае предусмотрена бесплатная доставка.
Цена включает НДС 7%
Узнать сроки доставки
40-60 раб. дней —
Мы ценим вашу обратную связь.
После покупки оставьте отзыв о ServerFlow на Яндексе и условия акции будут исполнены.
* — скидка предоставляется при покупке от 30 000 рублей, в ином случае предусмотрена бесплатная доставка.