Приложение Ollama обновилось до новой версии v0.12, в которой добавили функцию предварительного просмотра работоспособности ИИ-моделей в режиме реального времени без необходимости локальной установки.
Подробнее о Ollama v0.12
Благодаря новой функции, пользователи, не имеющие доступа к высокопроизводительным графическим ускорителям, могут запускать большие языковые модели с полным объемом параметров в облачном режиме, тестируя их производительность, скорость генерации и другие передовые возможности. При этом, разработчики Ollama заявляют, что все пользовательские данные будут оставаться конфиденциальными даже при работе в облачном режиме, а производительность ничем не будет отличаться от локального инференса. Облачные модели Ollama также работают через API, совместимый с OpenAI. Пока что для облачного запуска доступны только 4 модели: qwen3-coder:480b-cloud, gpt-oss:120b-cloud, gpt-oss:20b-cloud и deepseek-v3.1:671b-cloud, однако в будущем разработчики обещают расширить пул совместимых LLM. С руководством по скачиванию Ollama v0.12 можно ознакомиться на официальном сайте Ollama.
Выводы
Движок инференса Ollama активно развивается и всего за пару месяцев разработчики выпустили несколько версий приложения Ollama, в которых появились новые, инновационные функции. Скорее всего, в будущем пул возможностей Ollama увеличится еще больше, что позволит платформе лучше закрепиться на позиции самого популярного движка локального запуска больших языковых моделей.
Продолжная использовать наш сайт, вы даете согласие на использование файлов Cookie, пользовательских данных (IP-адрес, вид операционной системы, тип браузера, сведения о местоположении, источник, откуда пришел на сайт пользователь, с какого сайта или по какой рекламе, какие страницы
открывает и на какие страницы нажимает пользователь) в целях функционирования сайта, проведения статистических исследований и обзоров. Если вы не хотите, чтобы ваши данные обрабатывались, покиньте сайт.