Китайская лаборатория DeepSeek представила долгожданное семейство своих передовых ИИ-моделей DeepSeek-V4 — флагманскую DeepSeek-V4 Pro и облегченную DeepSeek-V4-Flash. Обе модели базируются на архитектуре MoE и имеют огромное контекстное окно в 1 миллион токенов. Веса передовых нейронок опубликованы на Hugging Face под лицензией MIT, также DeepSeek-V4 добавили в веб-чат и мобильное приложение компании, где они доступны абсолютно бесплатно, а для разработчиков DeepSeek-V4 работают через API.
Подробнее о DeepSeek V4
Флагманская модель DeepSeek-V4-Pro насчитывает 1,6 триллиона общих параметров, из которых на каждый токен активируется 49 миллиардов, что делает новую китайскую LLM самой большой open-source моделью в индустрии. DeepSeek-V4-Flash заметно компактнее: 284 миллиарда общих параметров при 13 миллиардах активных. Обе модели обучены на корпусе объемом более 32 триллионов токенов, а затем прошли двухэтапное пост-обучение: сначала эксперты развивались независимо в своих доменах с помощью supervised fine-tuning и обучения с подкреплением по алгоритму GRPO, после чего навыки объединялись в единую модель через дистилляцию на основе политик.
Главная особенность моделей DeepSeek V4 — радикальная экономия памяти и вычислений при работе с длинным контекстом. Разработчики внедрили гибридный механизм внимания, сочетающий сжатое разреженное внимание и сильно сжатое внимание. В результате при обработке одного миллиона токенов DeepSeek-V4-Pro тратит лишь 27% вычислений на новый токен и хранит всего 10% объема KV-кеша по сравнению с предыдущей версией DeepSeek-V3.2. Это принципиально снижает стоимость эксплуатации модели на сверхдлинных запросах — проблема, которая остро стоит перед всеми разработчиками агентных систем. Дополнительно улучшена стабильность обучения за счет гиперсвязей с ограничениями на многообразии и оптимизатора Muon.
Режим максимальной эффективности размышления DeepSeek-V4-Pro-Max, по собственной оценке компании, уверенно занимает позицию лучшей открытой модели на сегодняшний день. В задачах на кодирование она демонстрирует высочайшую производительность и существенно сокращает отставание от ведущих закрытых моделей. Впрочем, по сравнению со свежими Claude Opus 4.7 и вышедшей днем ранее GPT-5.5 новинка все же уступает: она скорее приближается к моделям предыдущего поколения, таким как Opus 4.6 и GPT-5.4. Облегченная версия Flash-Max при достаточном бюджете на размышление показывает результаты, сопоставимые с Pro, но немного отстает в задачах, требующих исключительно глубоких знаний, и в самых сложных агентных сценариях. На Codeforces, оценивающем соревновательное программирование, модель DeepSeek V4 Pro набирает рейтинг 3206, опережая GPT-5.4 с 3168 баллами и Gemini 3.1 Pro с 3052. Это соответствует 23-й строчке среди людей-участников платформы. На LiveCodeBench достигнут показатель 93,5% — самый высокий среди всех участников сравнения: Gemini 3.1 Pro набирает 91,7%, а Claude Opus 4.6 — 88,8%. В тесте SWE-bench Verified, симулирующем решение реальных задач на GitHub, модель достигла 80,6%, практически вплотную приблизившись к Claude Opus 4.6 с его 80,8%. По математическому тесту HMMT результат составил 95,2%, а в задачах на общие знания GPQA Diamond — 90,1%, что является рекордом среди открытых моделей. Впрочем, по SimpleQA модель набирает 57,9%, заметно уступая Gemini 3.1 Pro и подтверждая, что в области мировых знаний разрыв с закрытыми флагманами пока сохраняется.
ИИ-производительность DeepSeek V4 Pro и DeepSeek V4 Flash в режиме Max. Источник: .
Обе модели поддерживают вызовы инструментов и структурированный вывод в формате JSON, а максимальная длина генерации в API составляет 384 тысячи токенов. В документации DeepSeek отдельно описывает схему подключения V4 к Claude Code через совместимый с Anthropic эндпоинт: V4-Pro предлагается использовать на уровне моделей Opus или Sonnet, а V4-Flash — как более быстрый и дешевый аналог Haiku. Полноценной нативной поддержки Claude Code со стороны Anthropic здесь нет, но направление очевидно: DeepSeek хочет, чтобы ее модели оказались в инструменте, которым уже пользуются профессиональные разработчики, а массовому пользователю предлагается бесплатный чат. Также DeepSeek добавила поддержку новых ИИ-моделей в популярном агентном интерфейсе OpenClaw.
Выводы
Выход DeepSeek V4 ожидался всем ИИ-сообществом, и судя по ряду значительных нововведений, энтузиасты предвкушали DeepSeek V4 совсем не зря. Несмотря на то, что новинка не обходит флагманы OpenAI и Anthropic, но и не пытается этого делать: она предлагает прагматичный баланс между ценой, длиной контекста и качеством, который в условиях растущих требований к памяти многих агентных сценариев может оказаться востребованным. И важно понимать, что обе нейронки DeepSeek V4 Flash и DeepSeek V4 Pro обучались исключительно на китайских ИИ-ускорителях Huawei Ascend 950PR, что наглядно демонстрирует всему миру, как индустрия производства чипов Поднебесной практически сравнялась с зарубежными решениями Nvidia.
Сейчас тут ничего нет. Ваш комментарий может стать первым.
Скидка 1 500 ₽ или бесплатная доставка - уже сейчас 🔥
Мы ценим обратную связь от клиентов. При оформлении заказа вы можете сообщить о своём намерении поделиться впечатлением о работе ServerFlow после получения товара.
* - скидка предоставляется при покупке от 30 000 рублей, в ином случае предусмотрена бесплатная доставка до ПВЗ СДЭК.
Продолжная использовать наш сайт, вы даете согласие на использование файлов Cookie, пользовательских данных (IP-адрес, вид операционной системы, тип браузера, сведения о местоположении, источник, откуда пришел на сайт пользователь, с какого сайта или по какой рекламе, какие страницы
открывает и на какие страницы нажимает пользователь) в целях функционирования сайта, проведения статистических исследований и обзоров. Если вы не хотите, чтобы ваши данные обрабатывались, покиньте сайт.
При оформлении заказа в ServerFlow вы можете сообщить о намерении оставить отзыв о нашей работе после получения товара.
Нам важно ваше честное мнение. Оно помогает развивать сервис и даёт другим клиентам представление о нашей работе.
Вы можете оставить отзыв на удобной для вас платформе:
Google Maps
2GIS
Яндекс Карты
Как работает акция
Применяя промокод, вы подтверждаете намерение поделиться впечатлением о работе ServerFlow после получения заказа. Мы применяем бонус уже к текущему заказу в знак благодарности за обратную связь.
Условия акции:
скидка 1 500 ₽ при заказе от 30 000 ₽
или бесплатная доставка* при заказе до 30 000 ₽
* Бесплатная доставка заказа осуществляется до ПВЗ СДЭК.