В 29 мая 2025 года американский IT-стартап EnCharge AI анонсировал крайне интересное решение в направлении искусственного интеллекта — аналоговые ИИ-ускорители EN100 основанные на концепции in-memory вычислений. Благодаря этому по-настоящему уникальному устройству пользователи смогут эффективно развертывать передовые модели искусственного интеллекта на рабочих станциях, ПК и даже ноутбуках. В этом аналитическом материале мы попытаемся разобраться, что из себя представляют ИИ-решения EN100, чем известен стартап EnCharge AI, а также объясним, почему к анонсу стоит отнестись с долей скепсиса.
Подробнее о стартапе EnCharge AI
Чтобы лучше понять, чем же так хороши ускорители EN100, стоит немного прояснить перспективы EnCharge AI и положение этого стартапа на рынке. Во-первых, история EnCharge AI начинается в 2022 году, когда команда выходцев из Принстонского Университета основала собственный стартап. Стоит отметить, что этот университет — одно из старейших и самых авторитетных учебных заведений в США, из-под крыла которого выпустилось 35 лауреатов Нобелевской Премии, а также основатель Amazon Джефф Безос. В данный момент CEO EnCharge AI является Навин Верма, который с 2009 года является профессором в области электротехники и вычислительной техники в Принстонском Университете и обладает 13 почетными премиями и наградами в области преподавания и исследований. 3 года команда специалистов из EnCharge AI вела исследования в области вычислений в памяти и алгоритмах машинного обучения, разрабатывая свой инновационный продукт и получая огромные притоки инвестиций — за время своего существования EnCharge AI удалось собрать более $144 миллионов. Такая огромная сумма говорит о том, что инвесторы (в том числе Минобороны США) действительно верят в перспективы EnCharge AI и вкладывают в стартап большие деньги в надежде заработать при подорожании акций компании.
Основатели стартапа EnCharge AI — Навин Верма, Кайлаш Гопалакришнан и Эчере Ироага. Источник: .
EN100 — инновационный ИИ-ускоритель
Экосистема решений EN100 состоит из целого ряда устройств — встроенные вычислительные блоки, SoC-чипы, M.2-диски, PCIe-карты, а в ближайшем будущем должны появиться даже серверы.
Устройства на базе EN100. Источник: .
Ключевой особенностью всех этих решений на базе технологии EN100 являются аналоговые вычисления в оперативной памяти (in-memory computing, IMC). Компания EnCharge использует собственную модификацию этой технологии со сверхчастотными металлическими конденсаторами, благодаря чему подавляется влияние электромагнитных помех на эффективность вычислений и устраняются минусы традиционных IMC-вычислений, расширяя спектр сценариев использования.
Описание технологии вычислений в оперативной памяти и областей ее применения. Источник: .
Благодаря этой передовой технологии, а также программной оптимизации, устройства EN100 обеспечивают феноменальную энергоэффективность — 40 TOPS/Вт, при этом обеспечивая производительность до 1 PTOPS в режиме INT8 (исполнение в формате PCIe-карты). Для сравнения, текущий флагманский ИИ-ускоритель Nvidia B300 в 20 раз менее энергоэффективен, чем EN100. Примечательно, что EnCharge AI уже поделилась своими планами на 50-кратное масштабирование энергоэффективности в сравнении с Nvidia B300 уже в ближайшие несколько лет.
Масштабирование энергоэффективности технологии вычислений в памяти. Источник: .
Такой высокой энергоэффективности удалось добиться при использовании не самого современного 16-нм техпроцесса. До этого компания EnCharge AI использовала 28-нанометровый и более старые техпроцессы, тестируя свои наработке в секторе IMC, что говорит о перспективах значительного масштабирования возможностей этой технологии при переходе на более современные техпроцессы.
Развитие техпроцессов кристаллов EN100. Источник: .
Аппаратная составляющая ИИ-ускорителей EN100 также впечатляет — в SoC-исполнении эти решения представляют собой нечто похожее на технологию Adaptive SoC от компании AMD, которые включают в себя сразу кристаллов для выполнения разных задач. В частности, EN100 SoC имеют многопоточное вычислительное ядро на архитектуре RISC-V, NPU-ядра и FPU-ядра (блок для вычислений с плавающей запятой) для выполнения ИИ-операций, а также встроенный L2/L3 кэш и компактную память LPDDR. Примечательно, что ядро RISC-V не выполняет каких-либо вычислительных функций, а используется как оркестратор для управления всеми остальными кристаллами EN100. Такая аппаратная архитектура сама по себе представляет собой нечто инновационное, поскольку решения EN100, в отличие от многих других ИИ-стартапов, не просто продвигает идею уже ставших обыденностью NPU, а предлагает рынку нечто новое, сочетающее в себе перспективы IMC и особую SoC-платформу. Вся эта система способна обеспечить производительность свыше 14 TOPS на 1 вычислительный блок или свыше 200 TOPS на 1 SoC-чип EN100. Также стартап EnCharge AI заявляет, что их ИИ-ускорители EN100, подобно FPGA, являются программируемыми, поэтому их можно прошить для выполнения определенных типов задач. Интересно, что EnCharge AI напрямую не заявляет о том, с устройствами какой компании конкурируют их ИИ-ускорители EN100. Очевидно, что EnCharge AI намекает на конкуренцию с Nvidia, однако, в каких целях стартап избегает прямого сравнения — неизвестно.
Сравнение ИИ-производительности EN100 с решениями ближайшего конкурента (предположительно, Nvidia) в разных задачах. По заявлениям EnCharge AI, их ИИ-ускорители превосходят ИИ-устройства Nvidia при развертывании LLM, специализирующихся на генерации контента, машинном зрении и обработке естественного языка. Источник: .
Намеки на конкуренцию с Nvidia также прослеживаются в том, как EnCharge AI преподносит свои аналоговые ИИ-ускорители EN100. Решения EN100, по всей видимости, можно будет использовать не только для развертывания ИИ, но и для работы с профессиональными приложениями для мультимедиа, а также для ИИ-апскейлеров и общего улучшения игрового опыта. Тем самым, ИИ-устройства EnCharge AI также будут навязывать свое присутствие в сферах, где исторически главенствовала Nvidia и их линейки видеокарт GeForce RTX для гейминга и RTX PRO для профессиональных задач.
Устройства на базе EN100
Компания EnCharge AI на данном этапе продвигает 2 решения на базе чипов EN100 — M.2-диски и PCIe-карты.
M.2-диски EN100 с 1 SoC-чипом и 2 чипами памяти LPDDR будут ориентированы на интеграцию в ноутбуки для потребительского сегмента рынка, обеспечивая возможность локального развертывания больших языковых моделей с высокой производительностью. Доступные характеристики M.2-дисков EN100 включают:
Производительность — свыше 200 TOPS.
TDP — до 8,25 Вт.
Объем памяти — 32 ГБ LPDDR.
Общая пропускная способность — до 68 ГБ/с.
Форм-фактор — M.2 2280.
M.2-диск на базе чипа EN100. Источник: .
Стоит отметить, что низкая пропускная способность памяти обуславливается интеграцией чипов формата LPDDR DRAM, которые ориентированы на мобильный сегмент рынка и не отличается высокой скоростью. Такую же проблему можно наблюдать в китайских ИИ-ускорителях для инференса LLM Huawei Atlas 300i Тем не менее, поддержка In-memory computing, возможно, будет нивелировать этот недостаток, однако проверить это получится лишь на практике после выхода решений на базе EN100.
Следующее EN100-устройство представляет собой PCIe-карту расширений с 4 SoC-чипами от EnCharge AI, 8 чипами памяти LPDDR DRAM и, что интересно, PCIe-свичом. Скорее всего, последний выступает в роли оптимизатора пропускной способности LPDDR. Сама карта ориентирована на интеграцию рабочие станции, ПК и серверные системы, обеспечивая ИИ-производительность корпоративного уровня без ущерба энергоэффективности и низкой стоимости использования.
Рассмотрим представленные характеристики PCIe-карты EN100:
Производительность — свыше 1 PTOPS.
TDP — до 40 Вт.
Объем памяти — 128 ГБ LPDDR.
Общая пропускная способность — до 272 ГБ/с.
Форм-фактор — PCIe HHHL.
PCIe-карта расширений на базе чипов EN100. Источник: .
Также EnCharge AI отмечает, что PCIe-карта EN100 оптимизирована для работы с такими масштабными языковыми моделями с поддержкой функции рассуждения, как Phi-4, Gemini Nano, Gemma 3 и Llama* 4.
Программная экосистема EnCharge AI
Компания EnCharge AI заявляет о серьезности своих намерений и перспективности платформы EN100 в секторе искусственного интеллекта, выпуская не только ИИ-ускорители для разных сегментов рынка, но и разрабатывая собственную программную экосистему подобную AMD ROCm.
Программная экосистема для решений на базе EN100. Источник: .
В EnCharge входят следующие инструменты для работы с искусственным интеллектом:
Набор инструментов для квантирования передовых моделей искусственного интеллекта с поддержкой режимов INT8 и INT4 с поддержкой стандартов PyTorch, Keras и JAX.
Компилятор для адаптации моделей искусственного интеллекта для работы на системах EN100, который обеспечивает эффективное и бесшовное развертывание ИИ.
Программные библиотеки для подключения всех процессов развертывания ИИ к низкоуровневой системе выполнения EN100, драйверам и прошивкам.
Дополнительные наборы инструментов, такие как Model-zoo и оптимизированные SDK для анализа производительности ИИ (отладчики, симуляторы), а также функции для интеграции LLM в приложения и связи с поддержкой EnCharge AI.
Интеграция с популярными фреймворками, такими как Hugging Face, Ollama, TesorFlow, ONNX и другими платформами для обеспечения наилучшего пользовательского опыта и расширения возможностей при развертывании LLM.
Выводы
Несмотря на то, что описание ИИ-ускорителей EN100 звучит очень многообещающе, к громким заявлениям компании EnCharge AI стоит отнестись с весомой долей скепсиса. Во-первых, в IT-секторе уже ни раз были случаи, когда “перспективные” стартапы анонсировали, казалось бы, инновационные продукты, но после сбора огромных притоков инвестиций компании закрывались, так и не выпустив ни одного продукта. Ярким примером такой ситуации является история Элизабет Холмс и ее компании Theranos по производству нанороботов для медицины — это один из самых громких случаев стартап-мошенничества в секторе IT. Но даже с учетом таких прецедентов, инвесторы все равно продолжают инвестировать средства в начинающие стартапы с большими заявлениями и перспективами, которые ничем не подтверждены. Тем не менее, поддержка проекта EnCharge AI со стороны Министерства Обороны США, а также команда, состоящая из выпускников Принстонского Университета, опытных инженеров и программистов, внушает доверие к перспективному стартапу. Команда ServerFlow оптимистично смотрит на дальнейшее развитие проекта и надеется, что уже в ближайшем будущем EnCharge AI выпустит свои инновационные ИИ-решения на массовый рынок, усилив тенденцию повсеместной интеграции локальных моделей искусственного интеллекта.
*LLAMA — проект Meta Platforms Inc.**, деятельность которой в России признана экстремистской и запрещена
**Деятельность Meta Platforms Inc. в России признана экстремистской и запрещена
Графики выглядят как классическая манипуляция статистикой, взяли несколько моделей где есть успех, а остальные, которые популярные, не включили, хотя если бы было чем хвастаться оно было указано явно
Serverflow
Они может не привели эту информацию в графике, но разработчики уточнили и про такие популярные модели, как Gemini, возможно, Вы пропустили этот момент в статье :)
Скидка 3 000 ₽ или бесплатная доставка - уже сейчас 🔥
Мы ценим вашу обратную связь. После покупки оставьте отзыв о ServerFlow на Яндексе и условия акции будут исполнены.
* — скидка предоставляется при покупке от 30 000 рублей, в ином случае предусмотрена бесплатная доставка.
Продолжная использовать наш сайт, вы даете согласие на использование файлов Cookie, пользовательских данных (IP-адрес, вид операционной системы, тип браузера, сведения о местоположении, источник, откуда пришел на сайт пользователь, с какого сайта или по какой рекламе, какие страницы
открывает и на какие страницы нажимает пользователь) в целях функционирования сайта, проведения статистических исследований и обзоров. Если вы не хотите, чтобы ваши данные обрабатывались, покиньте сайт.