Top.Mail.Ru
Attention Is All You Need V2 — Google борется с катастрофическим забыванием ИИ | Блог Serverflow Скачать
прайс-лист
Бесплатная
доставка по РФ
Скидка
за отзыв!
Из-за нестабильности цен RAM фактическая стоимость может отличаться. Цена подтверждается после оформления заказа, работаем над обновлением цен!
Distribution of
Server Components
8 (800) 222-70-01 Консультация IT-специалиста Сравнение

Attention Is All You Need V2 — Google борется с катастрофическим забыванием ИИ

~ 2 мин
139
Простой
Новости
Attention Is All You Need V2 — Google борется с катастрофическим забыванием ИИ

Введение

Google Research опубликовала статью “Attention Is All You Need V2” и впервые предложила решение одной из фундаментальных проблем современных нейронных сетей — катастрофическое забывание. 

Подробнее о Attention Is All You Need V2

Проблема катастрофического забывания заключается в том, что искусственный интеллект утрачивает ранее приобретенные знания, когда обучается новым. Для больших языковых моделей это критично: они не способны учиться на своем опыте, постепенно улучшаясь, а любые новые данные требуют полного переобучения, при этом всегда есть риски деградации старых навыков.

Исследователи Google предлагают принципиально новую парадигму — вложенное обучение. Если классическое обучение рассматривает модель как статичную структуру, которая оптимизируется сверху вниз единым процессом, то вложенная архитектура разделяет обучение на несколько уровней, каждый из которых работает на своей собственной временной шкале. Это приближает нейросеть к принципам работы человеческого мозга, который комбинирует быстрые циклы обработки кратковременной памяти и медленные, устойчивые контуры долговременного запоминания.

Экспериментальным подтверждением новой концепции стала новая ИИ-архитектура под названием Hope, которая должна вдохнуть новую надежду в архитектуру трансформеров. Hope показывает, что модель можно организовать так, чтобы ее внутренние системы памяти обновлялись с разной скоростью в зависимости от текущей задачи. В задачах языкового моделирования экспериментальная архитектура превосходит современные рекуррентные модели и более эффективно работает с длинным контекстом, не теряя информацию при его увеличении. Это связано с тем, что вложенные блоки памяти позволяют удерживать долгосрочные зависимости без разрушения кратковременных.

Google описывает этот механизм как аналог человеческого распределенного обучения: мозг никогда не перезаписывает все сразу, а вместо этого обновляет разные уровни памяти разными темпами. Фактически, Hope является попыткой впервые объединить архитектуру модели и процесс ее обучения так, словно они являются не независимыми компонентами, а частями единой системы оптимизации.

Выводы

Публикация Attention Is All You Need V2 может стать отправной точкой для создания нового вида искусственного интеллекта, который не только выполняет запросы, но и способен учиться постоянно, без глобальных пересборок датасета и без потери накопленного опыта. Если концепция вложенного обучения закрепится в индустрии, это станет огромным шагом вперед к новым моделям, обучающимся так же плавно и непрерывно, как человеческий мозг.
Автор: Serverflow Serverflow
Поделиться

Комментарии 0

Написать комментарий
Сейчас тут ничего нет. Ваш комментарий может стать первым.
Написать отзыв
До 6 фото, размером до 12Мб каждое
Мы получили ваш отзыв!

Он появится на сайте после модерации.

Написать комментарий

Комментарий появится на сайте после предварительной модерации

До 6 фото, размером до 12Мб каждое
Мы получили ваш отзыв!

Он появится на сайте после модерации.

Мы свяжемся с вами утром

График работы: Пн-Пт 10:00-18:30 (по МСК)

Обработаем вашу заявку
в ближайший рабочий день

График работы: Пн-Пт 10:00-18:30 (по МСК)