Модель LLM формирует концепции сначала на английском

Исследование ученых из EPFL показало, что мультиязычные модели Llama-2 сначала формируют концепции на английском, затем на целевом языке. Анализ распределения вероятностей и языковых состояний в модели позволяет понять, что у LLM есть "родной" язык - язык концепций. Это открывает новые возможности в исследовании и интерпретации работы языковых моделей
Новости 2024 08 07

Введение

Как работает ваш мозг, когда вы говорите на иностранном языке? Сначала переводит внутри на родной или сразу понимает и формулирует фразы на иностранном? Тем интереснее понять, как с этим справляются большие языковые модели (LLM). Их обучают преимущественно на английских текстах, но они вдруг начинают неплохо говорить и на других языках. На общей волне интереса к интерпретируемости AI возникает запрос разобраться с этой мультиязычностью моделей.

Гипотеза о родном языке модели

Гипотеза о родном языке модели LLM внушает довольно непростые размышления о том, как именно AI воспринимает и обрабатывает информацию на разных языках. Интуитивно кажется, что говоря о модели, обученной на английском, мы стремимся к представлению о некоем "родном" языке для нее. Но анализ данных экспериментов показывает, что модель LLM, хоть и обучена в большей степени на английском, имеет своего рода "родной" язык концепций, который предшествует даже английскому в процессе формулирования ответов. Этот вывод предполагает, что эффективность модели не связана просто с переводом на английский, а с генерацией смысла и абстрактных идей на уровне языка концепций, где английский лишь является опорным и возможностями из-за большего словаря.

Эксперимент команды EPFL

Команда исследователей из EPFL провела эксперимент, целью которого было узнать, как именно работает многоязычная модель LLM на разных языках. Для этого они использовали модели из семейства Llama-2, обученные на текстах, где преобладает английский (более 89,7%). Однако, даже небольшая доля других языков, например, китайский с 0,13% токенов, включает в себя огромное количество данных (до 2,6 миллиарда токенов). Этот эксперимент позволил авторам получить важные инсайты о внутреннем функционировании модели LLM при работе с различными языками и раскрывает интересные факты о ее способности к мультиязычности.

Методика Logit Lens

Для более глубокого понимания скрытых состояний модели LLM использовалась методика Logit lens. Эта методика позволяет преобразовать как конечные, так и промежуточные скрытые состояния трансформера в токены для анализа. Путем проведения экспериментов с простыми вопросами на разных языках модель была подвергнута тестированию на точность ответов. Например, предоставлялись пары слов на различных языках, и модель должна была продолжить ряд правильным словом на нужном языке. Анализ данных позволил увидеть, как модель переходит от одного языка к другому внутри себя и каким образом она формирует правильные ответы на разных языках, в зависимости от промежуточных состояний.

Результаты эксперимента

На проведенном эксперименте команда из Федеральной политехнической школы Лозанны (EPFL) исследовала модель LLM, используя методику Logit lens. Результаты показали, что на разных слоях модели выводятся различные токены, отражающие процесс перевода и генерации текста. На начальных слоях появляется что-то бессвязное, не имеющее отношения к концепции, но по мере продвижения к средним слоям появляется верное значение, с некоторым предпочтением к английскому языку. Таким образом, модель LLM демонстрирует свои способности к мультиязычной генерации текста, где представленный процесс обработки информации происходит в несколько ступеней, от начальной фазы до более конкретного и связанного значения на средних слоях.

Модели и вероятности

Исследование, проведенное командой из Федеральной политехнической школы Лозанны (EPFL), раскрывает интересные аспекты работы мультиязычных моделей, в частности Llama-2. Они обучены на разноязычных текстах, преимущественно на английском, что повлияло на их способность генерировать текст на различных языках. С использованием методики Logit lens было установлено, что в начале процесса обработки информации английский язык доминирует, но по мере продвижения китайский язык становится преобладающим. Это свидетельствует о том, что у модели Llama-2 есть некий "родной" язык концепций, который она использует для формирования смысла высказывания, прежде чем перевести его на необходимый язык. Таким образом, английский остается опорным языком для модели, но в контексте концептуальных идей, а не просто для перевода.

Геометрическое представление траекторий

Для понимания работы трансформера и его путей авторы представляют задачу отражения эмбеддингов входных данных на эмбеддинги выходных данных. Каждый слой трансформера изменяет внутренний вектор, формируя некоторую траекторию в многомерном пространстве. Авторы выделяют три основные фазы этой траектории. Первая фаза характеризуется высокой энтропией и низкой энергией токенов, где скрытые состояния ортогональны выходным токенам. Во второй фазе появляется доминирующий английский язык, где эмбеддинги ближе к выходу и отражают общие идеи. Наконец, на третьей фазе, энергия увеличивается, а китайский язык становится главным, где абстрактные концепции соединяются с целевым языком, и лишняя информация отбрасывается для генерации ответа.

Интерпретация результатов

Интерпретация результатов исследования работы LLM представляет интересные выводы относительно процесса генерации текста на различных языках. Путем анализа энергии и энтропии скрытых состояний модели можно предположить, что она сначала формирует абстрактную идею на английском, а затем переводит ее на целевой язык. Это говорит о том, что у LLM может быть свой "родной" язык концепций, который является основой для генерации текста на разных языках. Такой подход позволяет лучше понять внутренние процессы модели и ее способность к мультиязычной работе.

Поиск