DeepSeek V3 неожиданно обновился, обеспечив значительный прирост производительности в программировании
Автор: ServerFlow
Обновленный DeepSeek V3-0324 лучше справляется с написанием кода и математикой, чем Claude Sonnet 3.7 и GPT-4.5.
Введение
23 марта 2025 года компания DeepSeek внезапно выпустила обновленную версию модели DeepSeek V3-0324 на платформе Hugging Face. Несмотря на то, что модель DeepSeek V3-0324 не имеет функции рассуждения, она продемонстрировала значительный прирост производительности в задачах программирования.
Особенности DeepSeek V3-0324
Как заявляют разработчики, улучшенная модель DeepSeek V3-0324 на архитектуре Mixture-of-Experts (MoE) стала значительно эффективнее справляться с математическими вычислениями и задачами программирования, в частности, Backend-разработкой. Эта информация подтверждается результатами бенчмарков, выложенных в профиле разработчиков на Hugging Face.
Результаты бенчмарков обновленной модели DeepSeek V3-0324. Источник: Hugging Face.
Согласно результатам тестирования, по сравнению с ванильной версией DeepSeek V3, языковая модель V3-0324 показала прирост в MMLU-Pro с 75,9 до 81,2, GPQA с 59,1 до 68,4, AIME с 39,6 до 59,4 и LiveCodeBench с 39,2 до 49,2. При этом, DeepSeek V3-0324 удалось обойти такие передовые модели, как GPT-4.5, Qwen-Max, а также LLM Claude Sonnet 3.7, которые специализируются на задачах программирования.
Также пользователи, уже успевшие протестировать обновленную модель, отметили оптимизацию чистоты кода, уменьшение количества ошибок и улучшение визуального оформления запущенных веб-страниц/интерфейсов. Еще несколько нововведений — улучшение опции Function Calling для вызова инструментов в API, ускорение обработки файлов и поиска информации в сети. Стоит отметить, что новая модель получила 685 миллиардов параметров, в то время как стандартная версия DeepSeek V3 имеет 671 миллиарда параметров. Несмотря на относительно небольшой прирост количества параметров, размер обновления DeepSeek V3-0324 составил 800 ГБ.
Выводы
Выход DeepSeek V3-0324 был весьма неожиданным, поскольку многие пользователи ожидали анонса новой версии именно рассуждающей модели DeepSeek R1, а не обновления старой LLM DeepSeek V3. Тем не менее, улучшенная DeepSeek V3 продемонстрировала впечатляющие результаты в бенчмарках, обойдя передовые нейросети от западных разработчиков. Это говорит о том, что Китай все еще не потратил свой потенциал в сфере создания передовых LLM, поэтому в ближайшем будущем мы можем ожидать новые нейросети, которые снова потрясут весь мир своей эффективностью.
DeepSeek V3 неожиданно обновился, обеспечив значительный прирост производительности в программировании
23 марта 2025 года компания DeepSeek внезапно выпустила обновленную версию модели DeepSeek V3-0324 на платформе Hugging Face. Несмотря на то, что модель DeepSeek V3-0324 не имеет функции рассуждения, она продемонстрировала значительный прирост производительности в задачах программирования.
Особенности DeepSeek V3-0324
Как заявляют разработчики, улучшенная модель DeepSeek V3-0324 на архитектуре Mixture-of-Experts (MoE) стала значительно эффективнее справляться с математическими вычислениями и задачами программирования, в частности, Backend-разработкой. Эта информация подтверждается результатами бенчмарков, выложенных в профиле разработчиков на Hugging Face.
Результаты бенчмарков обновленной модели DeepSeek V3-0324. Источник: Hugging Face.
Согласно результатам тестирования, по сравнению с ванильной версией DeepSeek V3, языковая модель V3-0324 показала прирост в MMLU-Pro с 75,9 до 81,2, GPQA с 59,1 до 68,4, AIME с 39,6 до 59,4 и LiveCodeBench с 39,2 до 49,2. При этом, DeepSeek V3-0324 удалось обойти такие передовые модели, как GPT-4.5, Qwen-Max, а также LLM Claude Sonnet 3.7, которые специализируются на задачах программирования.
Также пользователи, уже успевшие протестировать обновленную модель, отметили оптимизацию чистоты кода, уменьшение количества ошибок и улучшение визуального оформления запущенных веб-страниц/интерфейсов. Еще несколько нововведений — улучшение опции Function Calling для вызова инструментов в API, ускорение обработки файлов и поиска информации в сети. Стоит отметить, что новая модель получила 685 миллиардов параметров, в то время как стандартная версия DeepSeek V3 имеет 671 миллиарда параметров. Несмотря на относительно небольшой прирост количества параметров, размер обновления DeepSeek V3-0324 составил 800 ГБ.
Выводы
Выход DeepSeek V3-0324 был весьма неожиданным, поскольку многие пользователи ожидали анонса новой версии именно рассуждающей модели DeepSeek R1, а не обновления старой LLM DeepSeek V3. Тем не менее, улучшенная DeepSeek V3 продемонстрировала впечатляющие результаты в бенчмарках, обойдя передовые нейросети от западных разработчиков. Это говорит о том, что Китай все еще не потратил свой потенциал в сфере создания передовых LLM, поэтому в ближайшем будущем мы можем ожидать новые нейросети, которые снова потрясут весь мир своей эффективностью.
Отличная новость, ждем новые нейронки способные удивить мир!
Дед Максим
28.03.2025
В этом мире есть только одна надежда, что дипсик перестанет сообщать мне: server is busy. Черт его побери, если делаете нейронку, сделайте ее хорошо. Почему я должен уходить в GPT всякий раз когда Дипсик снова перегружен.
Serverflow
Понимаем Вашу боль, сами не раз с этим сталкивались, могу порекомендовать временно Grok в телеграме. Достойная альтернатива, если не хочется "танцевать с бубном")
Получите скидку 3 000 рублей или бесплатную доставку за подписку на новости*!
* — скидка предоставляется при покупке от 30 000 рублей, в ином случае предусмотрена бесплатная доставка.
Мы получили ваш отзыв!
Он появится на сайте после модерации.
Мы получили ваш отзыв!
Он появится на сайте после модерации.
Продолжная использовать наш сайт, вы даете согласие на использование файлов Cookie, пользовательских данных (IP-адрес, вид операционной системы, тип браузера, сведения о местоположении, источник, откуда пришел на сайт пользователь, с какого сайта или по какой рекламе, какие страницы
открывает и на какие страницы нажимает пользователь) в целях функционирования сайта, проведения статистических исследований и обзоров. Если вы не хотите, чтобы ваши данные обрабатывались, покиньте сайт.