Китайская компания Moonshot вновь совершила революцию на рынке искусственного интеллекта, представив продолжение своей линейки LLM и нового лидера индустрии — Kimi K2 Thinking. Рассуждающая модель предлагает высочайшую производительность, обходя ведущую ИИ-модель GPT-5 от OpenAI в ряде ключевых задач, при этом китайская нейросеть доступна в open-source.
Подробнее о Kimi K2 Thinking
Kimi K2 Thinking — это агентская ИИ-модель с открытым исходным кодом, базируется на архитектуре MoE, имеет 1 триллион параметров (32 миллиарда активных) и обеспечивает контекстное окно в 256 тысяч токенов. Kimi K2 Thinking создана для анализа данных и решения задач, требующих глубоких последовательных рассуждений, вроде написания кода, текстов, математических/физических вычислений и других операций. При сквозном обучении Kimi K2 Thinking использовался формат квантования INT4 от Moonshot, что позволило добиться двукратного ускорения инференса без потерь и с низкой задержкой. Модель также оптимизирована для эффективного вызова инструментов, благодаря чему нейросеть может автономно вести работу с исследованиями, кодированием и написанием текстов, состоящую из сотен шагов и без отклонений. Помимо этого, Kimi K2 Thinking способна сохранять возможность точного следования инструкциям при 200-300 последовательных вызовах инструментов, превосходя предыдущую модель Kimi-K2, которая деградировала после 30-50 шагов.
Согласно результатам тестирования, Kimi K2 Thinking показывает выдающиеся результаты, сопоставимые и даже превосходящие показатели ведущих мировых моделей, включая GPT-5 и Claude 4.5 Sonnet. В области агентских задач Kimi K2 Thinking установил новый рекорд, набрав 44,9 % в тесте “Humanity's Last Exam” (HLE, с инструментами), превысив результаты GPT-5 (41,7 %) и Claude (32,0 %). В агентском поиске модель также доминирует, достигая 60,2 % на BrowseComp и 56,3 % на Seal-0, что значительно выше аналогичных метрик конкурентов. В задачах по программированию Kimi K2 Thinking также демонстрирует высочайшие результаты: 71,3 % на SWE-Bench Verified (74,9% у GPT-5 и 77,2% у Claude 4.5 Sonnet) и 83,1 % на LiveCodeBench V6 (87,0% у GPT-5 и 64,0% у Claude 4.5 Sonnet). В тесте SWE-Multilingual модель уступает Claude 4.5 Sonnet (61,1 % против 68,0%), но снова обходит GPT-5 с 55,3% точности.
Производительность Kimi K2 Thinking в сравнении с GPT-5 и Claude 4.5 Sonnet. Источник: .
Пользователи уже могут протестировать Kimi-K2-Thinking через чат-бот или API, просто указав нужную модель в параметрах. Веса доступны на Hugging Face и нейросеть уже можно запускать на vLLM и SGLang, что делает Kimi-K2-Thinking одной из самых производительных (если не самой производительной) ИИ-моделей с открытым исходным кодом.
Kimi-K2-Thinking уже доступна для запуска через движок инференса vLLM. Источник: .
Выводы
Релиз Kimi K2 Thinking подтверждает, что китайские ИИ-модели не просто догоняют западные, а уже во многом их опережают. По ключевым метрикам новая модель показывает уровень, сравнимый или превышающий лидеров индустрии, что закрепляет Kimi K2 Thinking в таблицах лидеров ИИ-индустрии. В API Moonshot уже засветилась еще одна нейросеть под названием Kimi K2 Thinking Turbo, которая, по всей видимости, будет предназначена для более быстрых сессий и агентских операций с еще большей скоростью, поэтому в скором времени Moonshot может представить и ее.
Продолжная использовать наш сайт, вы даете согласие на использование файлов Cookie, пользовательских данных (IP-адрес, вид операционной системы, тип браузера, сведения о местоположении, источник, откуда пришел на сайт пользователь, с какого сайта или по какой рекламе, какие страницы
открывает и на какие страницы нажимает пользователь) в целях функционирования сайта, проведения статистических исследований и обзоров. Если вы не хотите, чтобы ваши данные обрабатывались, покиньте сайт.