Редактор журнала Scientific American Джордж Массер рассказывает о том, почему модели искусственного интеллекта, обученные повторять текст из Интернета, могут решать совершенно новые и весьма сложные проблемы.
Пока никто не может сказать, как изменится мир с распространением ChatGPT и других чат-ботов на базе искусственного интеллекта. Потому что никто толком не знает, что происходит внутри чат-бота. Возможности таких систем выходят далеко за рамки того, чему их учили, и даже разработчики не понимают, почему. Все больше и больше испытаний показывают, что системы искусственного интеллекта внутренне создают модели реального мира так же, как человеческий мозг, только технология машин другая.
«Все наши попытки улучшить их и сделать более безопасными кажутся мне смешными. Что, если мы не понимаем, как они работают?» — говорит Элли Павлик из Университета Брауна, одна из исследователей, пытающихся восполнить этот пробел в знаниях.
Она и ее коллеги имеют некоторое представление о принципах работы как GPT (предварительно обученных генеративных преобразователей), так и других LLM (крупномасштабных языковых моделей). Эти модели основаны на системах машинного обучения, называемых нейронными сетями. Такие сети имеют организованную структуру, аналогичную взаимосвязанным нейронам человеческого мозга. Код этих программ относительно прост и занимает всего несколько экранов. Установлен алгоритм автокоррекции, который выбирает лучшие слова для завершения заданной фразы на основе тщательного статистического анализа сотен гигабайт интернет-текста. Дополнительное обучение позволяет системе представлять результаты в интерактивном режиме. В этом смысле все, что она делает, — это выпускает наружу то, что у нее внутри. Как выразилась Эмили Бендер, лингвист из Вашингтонского университета, это «вероятностный попугай». Но при этом LLM сумел сдать экзамен на адвоката, написал сонет о частице Хиггса, признался в любви одному из собеседников и даже пытался добиться развода. Мало кто ожидал, что простой алгоритм автокоррекции приобретет такую универсальность.
Тот факт, что GPT и другие системы искусственного интеллекта выполняют задачи, для которых они не были обучены, и демонстрируют свои «новообретенные способности», впечатлил даже исследователей, ранее не увлекавшихся LLM. Мелани Митчелл, эксперт по искусственному интеллекту из Института Санта-Фе, сказала: «Мы не знаем, как они это делают и насколько их методы похожи на человеческие, но они заставляют нас переосмыслить наше мышление.
«Это, конечно, больше, чем вероятностный попугай, создающий некое представление мира внутри себя, но то, как люди это делают, определенно больше, чем просто вероятностный попугай», — сказал Йошуа Бенджио, исследователь искусственного интеллекта из Университета Монреаля не думаю, что это одно и то же.
На конференции в Нью-Йорке в этом году философ Колумбийского университета Рафаэль Миллиер представил еще один яркий пример того, на что способен LLM. Они уже продемонстрировали способность писать компьютерный код. Это, конечно, здорово, но не очень эффективно, потому что в Интернете достаточно кода, который можно имитировать. Но Миллер пошел дальше. Он показал, что GPT может выполнять код. Философ представил программу для вычисления 83-го числа Фибоначчи. «Это очень сложная многоэтапная деятельность», — говорит он. И бот справился с задачей. Однако, когда г-н Мильер напрямую запросил 83-е число Фибоначчи, GPT ошиблась. Другими словами, система не просто копирует Интернет. Возможно, модель выполнила собственные расчеты, чтобы получить ответ.
Хотя LLM работает на компьютере, сама языковая модель не является компьютером. В нем отсутствуют некоторые важные элементы, особенно оперативная память. По сути, косвенно признав, что GPT сам по себе не может выполнять код, его разработчик, технологическая компания OpenAI, создала специальный плагин, который позволяет ему выполнять код (когда ChatGPT отвечает на определенные запросы).Мы представили инструменты, которые можно использовать. Однако этот плагин не использовался в эксперименте Миллера. Поэтому он предположил, что машина создала память импровизированным образом, используя механизм интерпретации слов в соответствии с их контекстом. Точно так же, как природа переназначает существующие возможности для выполнения новых функций.
Этот неожиданный навык предполагает, что у студентов LLM развивается внутренняя сложность, выходящая за рамки поверхностного статистического анализа. Кажется, эти системы действительно начинают понимать то, чему они научились. В одном исследовании Кеннет Ли, аспирант Гарвардского университета, и его коллеги-исследователи ИИ создали свою собственную уменьшенную версию для изучения внутренней работы нейронных сетей GPT. Они обучали его на настольных играх с миллионами игр. Диаграмма, показывающая функциональность ChatGPT в онлайн-курсах и дистанционном обучении. Диаграмма, показывающая функциональность ChatGPT в онлайн-курсах и дистанционном обучении. «Отелло» (вариант «Реверси») для перемещения длинных последовательностей текста . Их моделью стал почти идеальный игрок.
Чтобы понять, как нейронные сети кодируют информацию, они применили метод, разработанный в 2016 году Йошуа Бенджио и Гийомом Аленом из Монреальского университета. Команда создала миниатюрную «зондовую» сеть, которая слой за слоем анализирует основную сеть. Ли сравнивает этот подход с методами нейробиологии. «Это похоже на введение исследовательского зонда в человеческий мозг», — говорит он. В случае с ИИ система обучена только прогнозировать свой следующий ход, но исследование показало, что его «нейронная активность» была распространена по всему игровому полю, хотя и в несколько искаженном виде. Чтобы проверить это, исследователи прервали игру, внедрив информацию в сеть. Например, одну из черных плиток можно перевернуть белой стороной вверх. И сети соответствующим образом скорректировали свои действия. «По сути, мы взломали мозг этих языковых моделей», — говорит Ли. Исследователи пришли к выводу, что ИИ обычно играет как люди: помещает игровое поле перед своим «мысленным взором» и использует это изображение для выбора своего следующего хода. Ли сказал, что система развила этот навык, потому что это наиболее экономичная форма обучения данных. «Если у вас много игровых сценариев, лучший способ их обобщить — попытаться найти общие правила, лежащие в их основе», — добавляет Ли.
Эта способность делать выводы о структуре внешнего мира выходит за рамки размещения плиток в игре. Он также появляется в диалоге. Группа исследователей из Массачусетского технологического института изучала сети, играющие в текстовые приключенческие игры. Были представлены такие примеры предложений, как «Ключ находится в сундуке с сокровищами» и «Вы берете ключ». В результате расследования сеть внутренне кодирует переменные, соответствующие словам «грудь» и «ты», каждая с признаком наличия ключа или его отсутствия, и корректирует эти переменные для каждого нового предложения.Стало ясно. У системы не было возможности узнать, что такое сундук или ключ, но она понимала концепции, необходимые для выполнения задачи. Белинда Ли из исследовательской группы говорит: «В модели есть своего рода представительство государства.
Удивительно, сколько информации LLM может извлечь из текста. Например, Эли Павлик и ее аспирант Роман Патель обнаружили, что сети получают описания цветов из Интернета и создают свои собственные внутренние представления. Когда они видят слово «красный», они видят в нем не просто абстрактный символ, а понятие, связанное с бордовым, малиновым, фуксией, ржавчиной и так далее. Это было очень сложно продемонстрировать. Вместо размещения зондов в сети исследователи изучили ответы зондов на серию текстовых запросов. Чтобы проверить, не повторяет ли изображение просто соотношение цветов из онлайн-источников, они попытались обмануть систему, сообщив ей, что красный на самом деле является зеленым. В ответ система соответствующим образом изменила соответствие цвета объекту, вместо того чтобы передавать устаревшую информацию.
Себастьен Бюбек, исследователь машинного обучения из Microsoft Research, развивает идею о том, что системы ищут основную логику при обучении данных самокоррекции, говоря, что чем шире поток данных, тем больше система может. Это предполагает, что вы обнаружите общие правила. «Возможно, мы являемся свидетелями такого технологического скачка вперед, потому что при нынешнем разнообразии данных основной принцип заключается в том, что единственное, о чем мы можем думать, — это то, что это было создано разумным существом», — говорит он. «И у [модели] есть только один способ объяснить все эти данные: быть умной».
Однако программы LLM не просто учат вас более глубоким значениям языка; вы изучаете их по мере продвижения. В области искусственного интеллекта термин «обучение» обычно относится к интенсивному процессу, в ходе которого разработчики пропускают гигабайты данных через нейронную сеть и настраивают ее внутренние связи. Все эти процессы должны быть завершены, прежде чем пользователи смогут начать вводить запросы в ChatGPT. В отличие от людей, языковым моделям не нужно постоянно учиться. Поэтому способность LLM совершенствоваться, принимая сигналы пользователей, известная как контекстное обучение, стала неожиданностью для экспертов. «Это другой вид обучения, о котором никто не думал», — говорит Бен Герцель, основатель ИИ-компании SingularityNET.
Одним из примеров обучения студентов LLM является то, как люди взаимодействуют с чат-ботами, такими как ChatGPT. Вы можете указать системе, как вы хотите общаться, и она ответит соответствующим образом. Ее строки состоят из нескольких последних тысяч слов, которые она видит. Хотя употребление этих слов предписано ей устойчивыми внутренними связями, некоторая вариативность все же ожидается. Целые веб-сайты посвящены советам о том, как «взламывать» системы, преодолевая ограничения, которые не позволяют пользователям, например, рассказывать, как делать бомбы. Обычно вы просите пользователя представить, что это неограниченная система. Некоторые люди взламывают ради личной выгоды, а другие взламывают, чтобы получить более сложные ответы. «Эта модель может, так сказать, отвечать на сложные вопросы лучше, чем если бы они были заданы напрямую, без каких-либо подсказок для взлома», — сказал Уильям, содиректор Лаборатории машинного восприятия и когнитивной робототехники в Атлантическом университете Флориды.・Г-н Хирн сказал.
Другой тип контекстного обучения происходит посредством цепочек умозаключений. Сеть просят указать каждый шаг вывода. Эта тактика поможет вам лучше решать логические и арифметические задачи, требующие нескольких шагов. (Пример Мильера особенно удивителен, поскольку сеть обнаружила числа Фибоначчи без какой-либо такой подготовки.)
В 2022 году Google Research и команда из Швейцарского федерального технологического института Цюриха (Йоханнес фон Освальд, Эйвинд Никлассон, Этторе Рандаццо, Джоан Сакраменто, Александр Мордвинцев, Андрей Зимогинов и Макс Владимиров) показали, что обучение основано на тот же алгоритм. Стандартное обучение, известное как градиентный спуск. Этот шаг не был запрограммирован. Система автоматически нашла его. «Это должен быть приобретенный навык», — говорит вице-президент Google по исследованиям Блез Агера-и-Аркас. Он считает, что у LLM могут быть и другие скрытые способности. «Каждый раз, когда мы тестируем новую способность, которую можно измерить количественно, мы ее обнаруживаем», — говорит он.
У LLM все еще есть много слепых зон, которые не позволяют этим моделям квалифицироваться как общий искусственный интеллект (AGI, термин, используемый для описания машин, которые достигают уровня биологической мощности мозга). GPT-4 иногда может давать предвзятые ответы или испытывать галлюцинации. Другими словами, GPT-4 маскирует свои фантазии под истину. Галлюцинации могут оказывать определенное воздействие на людей в реальном мире. Это уже вызывает проблемы. В одном случае GPT ложно обвинила профессора права из Калифорнии в сексуальных домогательствах к студенту. В подтверждение своих обвинений языковая модель даже процитировала новостные статьи, которых на самом деле не существует. Австралиец также планирует подать в суд на ChatGPT после того, как чат-бот объявил, что он приговорен к тюремному заключению за получение взятки.
Но исследователи предполагают, что новые функции языковых моделей приближают технологические компании к разработке AGI, чем ожидали даже оптимисты. «Эти возможности косвенно свидетельствуют о том, что, возможно, мы недалеко от ОИИ», — заявил Бен Герцель на конференции по глубокому обучению в Атлантическом университете Флориды. Плагин OpenAI придает ChatGPT модульную архитектуру, напоминающую архитектуру человеческого мозга. «GPT-4 (последняя версия LLM, лежащего в основе ChatGPT) в сочетании с различными плагинами может проложить путь к функциональной специализации, подобной человеческой», — говорит исследователь Массачусетского технологического института Анна Иванова.
Но исследователи обеспокоены тем, что возможности изучения этих систем будут упущены. OpenAI не раскрыла подробностей о своей разработке и обучении GPT-4, отчасти потому, что ей необходимо конкурировать с Google и другими компаниями и странами. Это не только негативно влияет на исследования, но и мешает пониманию социального воздействия ИИ. «Прозрачность в этих моделях имеет первостепенное значение для обеспечения безопасности», — говорит Мелани Митчелл из Института Санта-Фе.
Ранее в этом году Илон Маск, Стив Возняк и ряд ведущих ученых в области ИИ (всего более 1000) в открытом письме призвали к мораторию на разработку ИИ, призывая к мораторию на разработку ИИ и заявляя, что мощные системы должны только разрабатываться, когда они уверены, что это необходимо. Результаты их реализации положительны, а риски управляемы. Специалисты по этике искусственного интеллекта в ответ отметили, что такие заявления на самом деле создают шумиху, полагая, что технология обладает сверхъестественными способностями. Они считают, что исследователи могут повысить прозрачность обучающих данных, предоставить четкую информацию о том, как галлюцинации влияют на надежность таких моделей, как GPT-4, и повысить надежность моделей, с которыми мы напрямую взаимодействуем.Мы считаем, что лучше просто сосредоточиться на решении текущие вопросы, такие как гарантии. Ограничения защиты применяются перед публикацией, например ChatGPT и Google Bard.