Всего за несколько лет российская экосистема искусственного интеллекта эволюционировала из зародыша в полноценную продакшен индустрию, где балом правят не одиночные исследовательские проекты, а крупные компании. Благодаря усилиям отечественных разработчиков, в ассортименте российских ИИ нашлось место как для облачных, проприетарных нейросетей, доступных через API, так и для open-source моделей, доступных для локальной установки на ПК, рабочие станции и серверные системы. И эти модели — не просто “калька” с западных LLM, а реальные, отечественные продукты, оптимизированные под русский язык, реалии бизнес-сред СНГ и предлагающие разнообразный функционал под широкий список сценариев использования. В этой статье специалисты компании ServerFlow расскажут вам, какие российские нейросети существуют на данный момент, чем они отличаются, какие передовые функции они предлагают и как развернуть их локально для автономной работы, навсегда избавившись от зарубежных аналогов.
Что такое локальные нейросети и почему российские ИИ все чаще запускают
Локальные нейронки — это настоящий тренд индустрии ИИ в 2025 году. Вместо облачных моделей и API подключения, пользователи предпочитают ставить компактные, но мощные модели на собственном железе, получая полный контроль над работой ИИ. А особенно большую популярность локальные модели получили в РФ, и у этого есть несколько конкретных причин:
Первая — безопасность и контроль данных. Для бизнеса, госсектора и крупных компаний критично, чтобы тексты, аудио или изображения не покидали локальные сервера.
Вторая — автономность и независимость от внешних сервисов, санкционных рисков и изменений ценовой политики.
Третья — возможность глубокой кастомизации. Локальные модели проще дообучать, интегрировать в существующие системы, адаптировать под отраслевые задачи и выполнять прочий тюнинг.
Четвертая — при интенсивном использовании нейронок локальный запуск часто оказывается экономически выгоднее облачных API.
Благодаря этим возможностям, локальный ИИ в РФ все чаще и чаще рассматривается не как альтернатива облаку, а как полноценный инфраструктурный слой для интеграции нейросетей в рабочие процессы, которые, к тому же, можно удобно контролировать, кастомизировать и масштабировать вместе с ростом бизнеса и сменой потребностей.
Какие российские нейросети существуют: основные категории и задачи
Современные российские ИИ покрывают практически весь спектр задач машинного обучения. В первую очередь это LLM — языковые модели для генерации текста, ведения диалогов, анализа документов и написания кода. Отдельный сегмент, который пока лишь начал развиваться в РФ — генерация изображений и видео. Несмотря на раннюю стадию эволюции российских генеративных ИИ, отечественные решения уже конкурируют по качеству с зарубежными аналогами. Существенное внимание уделяется синтезу и распознаванию речи: российские ASR-модели и TTS-системы востребованы в колл-центрах, голосовых ассистентах и медиа. Помимо этого, активно развиваются vision-модели и OCR для анализа изображений и документов, а также embedding-модели, лежащие в основе RAG-систем, корпоративного поиска и чат-ботов с базами знаний. Наконец, существуют нишевые решения — от промышленной аналитики до специализированных моделей для финтеха и e-commerce.
Российские LLM и языковые нейросети для текста, кода и reasoning
LLM — это костяк, вокруг которого развиваются все сопутствующие специализации искусственного интеллекта. Именно поэтому развитию LLM-сегмента отечественные разработчики посвятили наибольшее количество усилий, и это определенно дало свои плоды.
GigaChat 3 (Сбер)
Лого отечественной LLM GigaChat3 от Сбера. Источник: .
GigaChat3 — флагманская линейка из 3 языковых моделей Sber AI, ориентированная на широкий спектр задач: от диалогов и генерации текстов до анализа документов и задач размышления. Доступны две модели с 10 миллиардами параметров для локального развертывания, а также крупная, топовая LLM на 702 миллиарда параметров для кластерного инференса. Модели разработаны полностью с нуля, функционируют на гибридной архитектурной связке MoE+MLA+MTP, контекстное окно достигает 131 тысяч токенов, а также топовая нейросеть линейки поддерживает мультимодальный ввод. Для локального запуска требуются GPU с 16-24 ГБ VRAM, а при использовании квантированных версий требование к видеопамяти можно снизить до 8-6 ГБ VRAM. GigaChat3 — это лучшее LLM решение в РФ на данный момент, и они уже доступны на и .
YandexGPT-5 (Яндекс)
Логотип YandexGPT-5. Источник: .
YandexGPT-5 — пятое поколение языковых моделей Яндекса на архитектуре decoder-only трансформеров, представленное двумя ключевыми версиями: YandexGPT-5 Lite Pretrain, Instruct, Instruct-GGUF и YandexGPT-5 Pro. YandexGPT-5 Lite Pretrain/Instruct/GGUF доступны локально и имеют 8 миллиардов параметров при контекстном окне 32 000 токенов, тогда как Pro-версия доступна исключительно в облаке. Модели обучены в два этапа на многоязычном корпусе данных с 15 трлн и 320 млрд токенов на русском, английском и других языках, математических задачах и языках программирования. Модели YandexGPT-5 оптимизированы для задач генерации, классификации, суммаризации и кодирования текста, обеспечивая высокую производительность на уровне проприетарных LLM. Исходный код YandexGPT-5 Lite выложен на Hugging Face.
T-pro 2.0 (Т-Банк)
Логотип языковой модели T-pro 2.0. Источник: .
T-pro 2.0 — языковая модель на базе Qwen3-32b от отдела T-Tech банка T-Bank, ориентированная на задачи размышления, выполнение сложных инструкций и прикладные задачи генерации текста. Доступны instruct, SFT и Preference Tuning модели. Модель базируется на архитектуре decoder-only трансформера с приблизительно 33 миллиарда параметров и поддерживает контекстные окна до 32 000 токенов. T-pro 2.0 также предлагает модели в формате GGUF, FP8 и AWQ для локального вывода, а также вариацию EAGLE на базе архитектуры speculative. Помимо open-source релиза на , T-pro 2.0 доступна через облако и поддерживает API-подключение.
Kodify-Nano (МТС)
ИИ-модель Kodify-Nano на Hugging Face. Источник: .
Kodify-Nano — компактная LLM от МТС, специализирующаяся на задачах генерации и анализа программного кода, с порядка 2 млрд параметров. Архитектура — легкий decoder-only Transformer, оптимизированный под синтаксические и семантические свойства языков программирования. Контекстное окно официально не раскрыто, но для моделей 2B контекст редко превышает 8-16 тысяч токенов. Основное преимущество — возможность локального запуска даже на слабых, потребительских GPU (8–16 GB VRAM) или CPU-системах без высоких требований к памяти. Kodify-Nano доступна в формате GGUF и GPTQ на с возможностью квантизации и интеграции в пайплайны разработки, поддерживается интеграция с VS Code и JetBrains через Docker-контейнеры.
A-vibe (Авито)
LLM Avibe от AvitoTech на Hugging Face. Источник: .
A-vibe — языковая модель от AvitoTech на базе Qwen3-8B-Base, предназначенная для работы с текстами объявлений, поиска, классификации и диалоговых сценариев. Модель Авито имеет всего 8 миллиардов параметров, при этом в нее интегрирован проприетарный токенизатор AvitoTech с оптимизацией под русский и английский язык, а скорость вывода выше на 15-20% в сравнении с Qwen3-8B. Для обучения был проведен SFT-этап, RL-этап, а также использовали большой корпус данных с различными объявлениями платформы Avito. На доступна базовая версия A-vibe в и .
Российские нейросети для генерации изображений
Генеративные ИИ-модели за последние годы стали не менее популярны, чем LLM, поэтому неудивительно, что отечественные разработчики решили задействовать свой багаж знаний и навыки в этой перспективной сфере. Пока что в российском генеративном ИИ выделилась лишь одна модель, но ее точности и производительности могут позавидовать даже зарубежные аналоги.
Kandinsky Image Lite (Сбер)
Коллекция Kandinsky Image Lite на Hugging Face. Источник: .
Kandinsky Image Lite — самая известная российская модель для генерации изображений от Sber AI. Компактная модель объемом 6 миллиардов параметров поддерживает форматы генерации text-to-image и image-to-image, разрешения 1280x768, 1024x1024 и другие 1К с задержкой около 13 секунд, при этом благодаря функции editing картинки можно удобно редактировать. Нейросеть ориентирована прежде всего на русский язык и локальные культурные контексты — в этих сценариях западные ИИ чаще всего сыпятся, пока Image Lite демонстрирует высочайшие результаты. На и GitHub доступны и версии.
Российские нейросети для генерации видео
Генерация видео — еще одно направление, где специалисты Сбера стали пионерами в отечественном ИИ-сегменте, добавив в релиз семейства Kandinsky 5.0 генеративный ИИ для создания высококачественных, фотореалистичных видеороликов.
Kandinsky Video Lite / Pro
Коллекция моделей Kandinsky Video Lite. Источник: .
Kandinsky Video Lite / Pro — топовые российские ИИ-модели для генерации видео. Модель Lite имеет всего 2 миллиарда параметров, что позволяет запускать видеомодель даже на самом слабом железе, тогда как версия Pro имеет 19 миллиардов параметров, обеспечивая высочайшее качество вывода видео и демонстрирует всю мощь семейства Kandinsky 5.0, но требует серьезного GPU-ускорителя уровня H100 или MI210 для инференса. Доступны сценарии вывода как T2V (text-to-video), так и I2V (image-to-video). Модели поддерживают длительность видео от 5 до 10 секунд с задержкой до 224 секунд для Lite и 1241 секунд для Pro. Большая видеомодель доступна в двух версиях SFT для высочайшего качества и Pretrain для тонкой настройки. Lite-версия поддерживает: SFT для высочайшего качества, CFG-distilled для быстрой генерации, Diffusion-distilled для быстрой генерации без потери качества и Pretrain для тонкой настройки.
Российские нейросети для распознавания речи (ASR)
Отечественный ASR-сектор активно развивается, так как на международном ИИ-рынке доступно крайне мало моделей распознавания речи с поддержкой русского языка, поэтому российские разработчики стремятся закрыть потребности рынка и предложить юзерам лучшее качество распознавания великого и могучего.
GigaAM (Сбер)
Модель GigaAM v3 на GitHub. Источник: .
GigaAM v3 — это передовая модель от Sber AI, разработанная для преобразования речи в текст. Она базируется на архитектурах CTC и RNN-T, доступна в открытом доступе и имеет всего 220-240 миллионов параметров, что позволяет развертывать ее даже на самом слабом железе. Поддерживается базовая модель и ONNX-версия. По сути, GigaAM v3 является единственным полноценным российским конкурентом Whisper от OpenAI.
T-one (Т-Банк)
ИИ-модель T-one от Т-Банка. Источник: .
T-one — ASR-модель объемом 71 миллиардов параметров, разработанная Т-Банком для собственных сервисов и корпоративных клиентов. T-one обрабатывает аудио в фрагментах по 300 мс и генерирует расшифровки с помощью сжатого декодирования или декодера CTC с поиском луча на основе KenLM. Модель базируется на архитектуре Conformer и использует различные оптимизирующие модули, в частности, SwiGLU, ReLU и LayerNorm, RoPE и U-Net. Она ориентирована на высокую точность и устойчивость к шуму, а локальный запуск позволяет использовать ее в защищенных средах. Доступна одна полноразмерная версия T-one в формате FP32, развертывание доступно через контейнер Docker, а открытые веса лежат на .
Российские нейросети для синтеза речи (TTS)
Синтез речи — активно набирающее популярность направление российского ИИ с точки зрения локального применения. Большинство моделей были выпущены на заре развития этого типа ИИ, но есть и более современные нейросети, оптимизированные под современные бизнес-задачи.
F5-TTS_RUSSIAN (Misha24-10)
F5-TTS_RUSSIAN на Hugging Face. Источник: .
F5-TTS_RUSSIAN — это версия архитектуры F5-TTS, дообученная на 5000 часах русского языка. Фактически эта дообученная модель является эффективным русскоязычным TTS-решением, ориентированным на локальное использование. Компактная нейросеть имеет всего 335 миллионов параметров, что позволяет интегрировать ее в локальные инфраструктуры со слабым железом, ориентированные на достижение максимальной точности в насыщенности интонации и качественном звучании.
Vision и OCR: российские модели для анализа изображений
Анализ изображений стал настоящим трендом ИИ-индустрии в 2025 году, но пока весь мир пользуется пресловутыми DeepSeek-OCR или PaddleOCR, отечественные ML-специалисты создают собственные решения, ничем не уступающие аналогам.
A-vision (Avito)
Модель A-vision для распознавания изображений. Источник: .
A-vision — компактная vision-модель с 7 миллиардов параметров от AvitoTech, ориентированная на анализ изображений в e-commerce-сценариях. Она используется для модерации, классификации и улучшения качества контента и может быть развернута локально благодаря открытым весам на . Модель обучена на собственном русскоязычном мультимодальном корпусе данных из 200 тысяч изображений объявлений и 1 миллиона пар “вопрос–ответ”. Также в A-vision был интегрирован собственный токенизатор Avito, а дообучение выполняли с использованием SFT-подхода и RL-этапа, что позволило добиться точности выше, чем у Qwen2.5-VL-7B-Instruct.
Embeddings и RAG: российские модели для поиска и чат-ботов
В российской экосистеме ИИ существует несколько собственных и адаптированных RAG-моделей, которые можно использовать локально, без обращения к зарубежным API.
FRIDA (AI-Forever)
ИИ-модель FRIDA для выстраивания RAG-систем. Источник: .
FRIDA — embedding-модель на базе T5, ruMTEB и ru-en-RoSBERTa от исследовательской команды AI-Forever (дочка Sber AI). Модель имеет всего 800 миллионов параметров и предназначена для построения семантического поиска и интеллектуальных ассистентов, работающих с большими массивами русскоязычных данных. Модель оптимизирована для задач поиска релевантных фрагментов текста и хорошо подходит для использования в RAG-пайплайнах. FRIDA доступна для локального использования, поддерживает стандартные фреймворки и легко интегрируется с векторными базами данных.
Giga-Embeddings (Сбер)
Модель Giga-Embeddings от разработчиков Сбера. Источник: .
Giga-Embeddings — embedding-модель в формате instruct от Сбера, разработанная как часть семейства GigaChat3 на базе архитектуры Latent-Attention. Эта компактная модель объемом 3 миллиарда параметров ориентирована на корпоративные сценарии использования: поиск по документам, чат-боты поддержки, анализ внутренней базы знаний. Веса модели лежат на для локального использования в RAG-пайплайнах.
Кто разрабатывает российские нейросети: ключевые компании и команды
Экосистема российских ИИ создается усилиями крупных технологических компаний и независимых команд. Вот несколько ключевых игроков на этом рынке, которые формируют ландшафт искусственного интеллекта в отечественном сегменте рынка.
Сбер;
Яндекс;
Т-Банк;
Avito;
МТС.
Выводы
К 2025 году в России сформировалась полноценная экосистема искусственного интеллекта, охватывающая все ключевые направления — от языковых моделей и генерации визуального контента до синтеза речи, vision-моделей и RAG-систем. Существенная часть этих нейросетей уже доступна для локального использования: веса можно скачать, развернуть на своем железе и интегрировать в собственную инфраструктуру, полностью вытеснив зарубежные ИИ из вашего бизнеса. Помните, что выбор подходящей российской ИИ-модели зависит от необходимого сценария использования и доступного оборудования для локального инференса. С первым разберется ваш тимлид, а с последним вам с радостью поможет компания ServerFlow. Наша компания специализируется на поставке мощного серверного оборудования для задач локального инференса искусственного интеллекта, поэтому мы сможем подобрать оптимальное железо под ваши задачи и бюджет — просто обратитесь к нашему специалисту для консультации, после чего мы соберем и настроим идеальную конфигурацию для вашего бизнеса.
Знаете, я часто слышу о росте инвестиций в ИИ когда речь идет про США, ЕС или КНР или другие страны, но таких новостей в нашем сегменте вряд ли вообще встречал. Что если, просто предположение, это просто оболочки уже существующих нейронок, куда поставили российский логотип?
Serverflow
Мы не можем подтвердить или опровергнуть Ваше предположение, но что мы можем сказать, так это что локальные ИИ от российских компаний очень даже неплохо работают! Может, если будете почаще ими пользоваться, то и новостей про инвестиции в отрасль будет больше :)
Скидка 1 500 ₽ или бесплатная доставка - уже сейчас 🔥
Мы ценим обратную связь от клиентов. При оформлении заказа вы можете сообщить о своём намерении поделиться впечатлением о работе ServerFlow после получения товара.
* - скидка предоставляется при покупке от 30 000 рублей, в ином случае предусмотрена бесплатная доставка до ПВЗ СДЭК.
Продолжная использовать наш сайт, вы даете согласие на использование файлов Cookie, пользовательских данных (IP-адрес, вид операционной системы, тип браузера, сведения о местоположении, источник, откуда пришел на сайт пользователь, с какого сайта или по какой рекламе, какие страницы
открывает и на какие страницы нажимает пользователь) в целях функционирования сайта, проведения статистических исследований и обзоров. Если вы не хотите, чтобы ваши данные обрабатывались, покиньте сайт.
При оформлении заказа в ServerFlow вы можете сообщить о намерении оставить отзыв о нашей работе после получения товара.
Нам важно ваше честное мнение. Оно помогает развивать сервис и даёт другим клиентам представление о нашей работе.
Вы можете оставить отзыв на удобной для вас платформе:
Google Maps
2GIS
Яндекс Карты
Как работает акция
Применяя промокод, вы подтверждаете намерение поделиться впечатлением о работе ServerFlow после получения заказа. Мы применяем бонус уже к текущему заказу в знак благодарности за обратную связь.
Условия акции:
скидка 1 500 ₽ при заказе от 30 000 ₽
или бесплатная доставка* при заказе до 30 000 ₽
* Бесплатная доставка заказа осуществляется до ПВЗ СДЭК.