Инструкция по установке и запуску текстовой нейросети от Сбербанка – Gigachat 3
Что такое GigaChat
Актуальный модельный ряд GigaChat 3
Характеристики моделей GigaChat 3
| Характеристика | GigaChat 3 Lightning 10B‑A1.8B | GigaChat 3 Ultra 702B‑A36B |
|---|---|---|
| Тип модели | MoE‑модель, оптимизированная под локальный и высоконагруженный инференс | Крупная MoE‑модель «фронтир»-класса для кластеров и облака |
| Общие параметры | Около 10 млрд параметров | Около 702 млрд параметров |
| Активные параметры на токен | Примерно 1.8 млрд активных параметров (A1.8B) | Примерно 36 млрд активных параметров (A36B) |
| Максимальный контекст | До 256k токенов | До 128k токенов |
| Архитектурные особенности | Mixture of Experts + Multi‑Head Latent Attention (MLA) для длинного контекста и экономии KV‑кэша | Mixture of Experts, ориентирована на максимум качества и масштабируемость на кластере |
| Лицензия и открытость | Открытые веса под MIT‑лицензией, есть bf16 и GGUF‑версии | Открытые веса (Ultra Preview) для bf16/fp8, в основном под vLLM/SGLang и подобные фреймворки |
| Типичное железо | Одна мощная GPU (20–24 GB VRAM и выше) или несколько средних, подходит для локального запуска и небольших серверов | Многоголовый GPU‑кластер (несколько больших карт с десятками GB VRAM каждая), рассчитана на дата‑центры |
| Основные сценарии | Локальный чат, RAG, сервисы с длинным контекстом и высокой нагрузкой на одной/нескольких картах | Облако, крупные B2B‑сервисы, сложные reasoning‑задачи с максимальным качеством |
| Поддержка в экосистеме | Есть готовые GGUF‑порты и сборка для Ollama (forzer/GigaChat3-10B-A1.8B) | Ориентирована на фреймворки типа vLLM, SGLang, TensorRT‑LLM; GGUF‑портов почти нет |
Инструкция по установке и запуску GigaChat 3
Инструкция для NVIDIA GPU (CUDA)
Инструкция для NVIDIA GPU (CUDA)
Установка драйверов NVIDIA, Ollama и запуск GigaChat на картах NVIDIA
sudo apt update
sudo apt install -y nvidia-driver-550
sudo apt install -y nvidia-driver-560
sudo reboot
nvidia-smi
curl -fsSL https://ollama.com/install.sh | sh
ollama --version systemctl status ollama
Если в системе несколько видеокарт, выберите нужную по индексу с помощью CUDA_VISIBLE_DEVICES.
nvidia-smi
sudo systemctl edit ollama.service
Вставьте в открывшийся редактор (замените 0 на нужный индекс):
[Service] Environment="CUDA_VISIBLE_DEVICES=0"
sudo systemctl daemon-reload sudo systemctl restart ollama
# Проверка привязки sudo systemctl show ollama | grep CUDA_VISIBLE_DEVICES
sudo mkdir -p /usr/share/ollama/.ollama sudo chown -R ollama:ollama /usr/share/ollama sudo systemctl restart ollama
ollama pull forzer/GigaChat3-10B-A1.8B
ollama pull infidelis/GigaChat-20B-A3B-instruct-v1.5:q4_0
ollama list
ollama run forzer/GigaChat3-10B-A1.8B
ollama run infidelis/GigaChat-20B-A3B-instruct-v1.5:q4_0
Во время генерации ответа (в другом терминале):
watch -n 1 nvidia-smi
Ollama уже настроен на автозапуск как systemd‑сервис. После перезагрузки можно сразу запускать модель командой:
ollama run forzer/GigaChat3-10B-A1.8B
Инструкция для AMD GPU (ROCm)
Инструкция для AMD GPU (ROCm)
Установка ROCm, Ollama и запуск GigaChat на видеокартах AMD
sudo apt update sudo apt install -y wget gnupg2
wget https://repo.radeon.com/amdgpu-install/6.4/ubuntu/noble/amdgpu-install_6.4.60400-1_all.deb sudo apt install ./amdgpu-install_6.4.60400-1_all.deb sudo apt update
sudo amdgpu-install --usecase=rocm --no-dkms sudo usermod -aG render,video $USER
echo 'export PATH=$PATH:/opt/rocm/bin' | sudo tee /etc/profile.d/rocm-path.sh echo 'export HIP_PATH=/opt/rocm' | sudo tee -a /etc/profile.d/rocm-path.sh source /etc/profile.d/rocm-path.sh
sudo reboot
rocminfo rocm-smi
curl -fsSL https://ollama.com/install.sh | sh
ollama --version systemctl status ollama
sudo systemctl start ollamarocminfo | grep -E "Marketing Name|Uuid"
sudo systemctl edit ollama.service
Вставьте в открывшийся редактор (замените GPU-XXXX... на ваш UUID):
[Service] Environment=ROCR_VISIBLE_DEVICES=GPU-XXXX...
sudo systemctl daemon-reload sudo systemctl restart ollama
# Проверка привязки sudo systemctl show ollama | grep ROCR_VISIBLE_DEVICES
sudo mkdir -p /usr/share/ollama/.ollama sudo chown -R ollama:ollama /usr/share/ollama sudo systemctl restart ollama
ollama pull forzer/GigaChat3-10B-A1.8B
ollama pull infidelis/GigaChat-20B-A3B-instruct-v1.5:q4_0
ollama list
ollama run forzer/GigaChat3-10B-A1.8B
ollama run infidelis/GigaChat-20B-A3B-instruct-v1.5:q4_0
watch -n 1 rocm-smi
Ollama автоматически запускается как systemd-сервис. Для быстрого запуска модели:
ollama run forzer/GigaChat3-10B-A1.8B