Цена с учетом расширенной гарантии
Цена включает НДС 7%
Узнать сроки доставки
40-60 раб. дней —
| Тип | Новые |
| Основная задача | Обучение моделей / Инференс / Дообучение моделей / RAG-системы / Анализ данных / Визуализация и рендеринг |
| Процессор (CPU) | Intel Xeon 6-series |
| Видеокарта (GPU) | NVIDIA RTX PRO 6000 Blackwell |
| Количество GPU, шт | 4 |
| Общий объем видеопамяти (VRAM), ГБ | 384 |
| Тип памяти GPU | GDDR7 |
| Объем оперативной памяти (RAM), ГБ | 768 |
| Тип оперативной памяти | DDR5 ECC REG |
| Форм-фактор | 2U |
Это наша сборка на Северной платформе Gigabyte XV24-SU0-AAJ1: компактный высокоплотный узел под 4 GPU, рассчитанный на продакшн-нагрузки и масштабирование по сети. Конфигурация отлично закрывает Инференс / Развертывание (Inference) и RAG-системы (Retrieval-Augmented Generation) - можно держать длинный контекст, несколько реплик и параллельные пайплайны без постоянной борьбы за память.
4× NVIDIA RTX PRO 6000 Blackwell Server Edition 96GB GDDR7 дают 384GB суммарной VRAM - этого хватает для запуска больших LLM в multi-GPU режиме (tensor/pipeline parallel) и для тяжёлых генеративных пайплайнов. Сервер также подходит для Дообучение моделей (Fine-tuning) и Обучение моделей (Training) (особенно когда важен большой batch/градиенты и стабильная работа на FP16/FP8 в современном стеке CUDA).
Сильная сторона именно этой конфигурации - баланс GPU + память + сеть: 768GB DDR5 ECC REG позволяют держать крупные датасеты/индексы RAG в RAM, а 2× NVIDIA MCX713106AC-VEAT (итого 4 порта 200GbE QSFP112) - удобно для распределённых сценариев (несколько узлов, внешние хранилища, высокие QPS-кластеры).
| Тип точности | Совокупная мощность четырех RTX PRO 6000 BSE |
| FP32 | 480 TFLOPS |
| FP4 | 16 PFLOPS |
| RT Core performance* | 1420 TFLOPS |
*-RT Core performance - это пиковая производительность специализированных RT-ядер (Ray Tracing Cores), которые аппаратно ускоряют операции трассировки лучей (поиск пересечений луча с геометрией и обход BVH). Показатель важен для визуализации/рендеринга и некоторых графических/3D-пайплайнов, но не является прямым аналогом FP32/AI-производительности.
| Модель | Тип квантизации | Требуется VRAM | Совместимость | Примечание |
| DeepSeek-R1-Distill-Llama-70B | Нет | Примерно 141GB | ✅ | Запускается на одном сервере в multi-GPU режиме (обычно 2–4 GPU) через tensor/pipeline parallel (vLLM/TensorRT-LLM). Хорош для reasoning и длинного контекста; запас общей VRAM можно отдать под KV-cache и высокий QPS. |
| Qwen3-235B-A22B-Thinking-2507-FP8/td> | FP8 | Примерно 236GB | ✅ | Хороший кандидат для “большой модели на одном узле”: запускается в FP8 с распределением по 4 GPU, остаётся запас под KV-cache и несколько параллельных запросов. Подходит для агентов, продакшн-чатов и RAG с высоким QPS. |
| gpt-oss:120b | Нет (FP16) | Примерно 260GB | ✅ | Комфортно работает на одном узле при распределении по 4 GPU. Хороший баланс “размер модели ↔ пропускная способность”: можно держать модель без квантизации и при этом оставить ресурс под несколько потоков инференса и увеличенный KV-cache. |
| Mistral-Large-3-675B-Instruct-2512-GGUF | IQ4_XS | Примерно 360GB | ⚠️ | Запуск возможен в рамках 4×96GB, но “впритык”: потребуется аккуратная настройка контекста и batch size. Рекомендуется vLLM и контроль KV-cache, чтобы сохранить стабильную латентность. |
| GLM-4.7-FP8 | FP8 | Примерно 362GB | ⚠️ | FP8 снижает требования к памяти и помогает поднять throughput, но по VRAM модель близка к лимиту узла. Для стабильной работы рекомендуются умеренный контекст, грамотное распределение по 4 GPU и продакшн-движок (TensorRT-LLM/vLLM). |
| ai-sage_GigaChat3-702B-A36B-preview-GGUF | IQ4_XS | Примерно 376GB | ⚠️ | На узле 4×96GB (384GB VRAM) работает «на грани» по памяти: потребуется строгий контроль контекста (KV-cache), batch size и числа параллельных сессий. Рекомендуется запуск через vLLM/TensorRT-LLM с аккуратным распределением (tensor/pipeline parallel); при правильной настройке подходит для крупных ассистентов и длинных диалогов, но без большого запаса под высокие QPS-нагрузки |
| Модель | Тип | Совместимость | Примечание |
| Stable Diffusion XL 1.0 | Текст в изображение | ✅ | На 4× RTX PRO 6000 BSE удобно параллелить пайплайны (несколько пользователей/очередей), держать большие batch и стабильно генерировать high-res. 96GB на GPU дают большой запас под upscalers и постобработку. |
| Flux.2-dev | Текст в изображение | ✅ | Требовательна к VRAM, но 96GB на GPU позволяют комфортно работать с высоким разрешением и батчами. Можно масштабировать throughput по нескольким GPU внутри одного сервера для стабильной high-res генерации. |
| SD Turbo | Быстрые предпросмотры | ✅ | Максимальная скорость итераций: легко держать много параллельных задач предпросмотра/серийных кадров на одном узле и обслуживать несколько потоков одновременно с низкой задержкой. |
| Kandinsky-5.0-T2I-Lite-sft-Diffusers | Текст в изображение | ✅ | Лёгкая модель: остаётся большой запас VRAM под высокое разрешение, батчи и одновременную работу нескольких пайплайнов на 4 GPU — удобно для многопользовательских сценариев. |
| Kandinsky-5.0-T2V-Lite-sft-5s-Diffusers | Текст в видео | ✅ | Для коротких роликов удобно распараллеливать генерацию по GPU: один сервер ускоряет пакетную обработку, держит несколько очередей и стабильно обслуживает серию задач на CUDA-стеке. |
| Платформа | GIGABYTE XV24-SU0-AAJ1 |
| Видеокарта | 4x NVIDIA RTX PRO 6000 Blackwell Server Edition 96GB GDDR7 |
| Процессор | 1x Intel Xeon 6737P (32c/64t, 2.9GHz-4.0GHz, 270W) |
| Оперативная память | 6x 128GB DDR5 ECC REG Micron 6400Mhz 2Rx4 |
| SSD накопитель | 1x Solidigm D7-PS1030 6.4TB 2.5" U.2 |
| Сетевая карта | 2x NVIDIA MCX713106AC-VEAT (2x QSFP112 200GBE) |
Мы отправляем заказы ведущими транспортными компаниями:
Все отправления тщательно упаковываются и скорейшие сроки передаются в ТК.
Ориентировочные сроки сборки заказов:
В случае если оборудование требуется в срочном порядке сообщите менеджеру и мы организуем приоритетную обработку вашего заказа с учетом выбора тарифа “Экспресс” со стороны ТК.
Оплата заказа доступна после подтверждения менеджером посредством следующих способов оплаты:
ServerFlow — это интернет магазин специализирующийся на продаже Б/У и новой серверной техники. Все наше оборудование проходит строгий процесс предпродажной подготовки. Мы уделяем большое внимание тестированию всех компонентов, чтобы минимизировать вероятность возникновения гарантийных случаев и обеспечить высокое качество продукции.
Также мы можем предложить расширенный срок гарантийных отношений:
Мы верим, что сможем обеспечить наилучший пользовательский опыт и ценим ваше доверие. Если у вас остались дополнительные вопросы, вы можете адресовать их в онлайн чате на сайте или задать в Telegram @serverflow.
ServerFlow активно занимается б/у оборудованием, поэтому мы готовы рассмотреть ваше оборудование в качестве основания для предоставления скидки в рамках “Trade-in”. Чтобы произвести оценку оборудования обратитесь в онлайн чат на сайте или в Telegram @serverflow.
Почему Trade-in в ServerFlow — это удобно:
Оставьте отзыв о ServerFlow на Яндексе и условия акции будут исполнены
* скидка предоставляется при покупке от 30 000 рублей,
в ином случае предусмотрена бесплатная доставка.
Цена включает НДС 7%
Узнать сроки доставки
40-60 раб. дней —
Мы ценим вашу обратную связь.
После покупки оставьте отзыв о ServerFlow на Яндексе и условия акции будут исполнены.
* — скидка предоставляется при покупке от 30 000 рублей, в ином случае предусмотрена бесплатная доставка.