Ум или имитация

Ум или имитация

  • 29 ноября
  • читать 20 мин
Ханна Янкина
Ханна Янкина Head of Recruitment в Proxet, Преподаватель Компьютерной школы Hillel.

УМ ИЛИ ИМИТАЦИЯ? ЧЕМ МЫ ОТЛИЧАЕМСЯ ОТ ИИ

Эксперты до сих пор не до конца могут определиться — умеют ли нейросети действительно «думать», или только повторяют изученное? В этой статье попробуем разобраться, как учёные подходят к этому вопросу, каковы перспективы успеха в исследованиях и что это значит для человечества в целом.

«МИСЛЕННЯ» ЧИ ПРОСТА ІМІТАЦІЯ?

Разговоры о больших языковых моделях (Large Language Models, LLM) нередко приводят к горячим дискуссиям. С одной стороны, люди видят в них «интеллект», способный анализировать информацию, находить закономерности и даже делать выводы, указывающие на определённый уровень «понимания». Эти модели могут отвечать на сложные вопросы, помогать творческим задачам, писать статьи и даже программный код. С другой стороны есть теория, что LLM — это не более, чем «статистические попугаи», воспроизводящие уже известные шаблоны и не обладающие подлинным пониманием более глубоких смыслов продуцируемого ими текста. Аргументы обеих сторон имеют основание, но пока нет окончательного вывода, который позволил бы решить этот вопрос однозначно.

То, что модель может легко ответить на вопрос, сколько будет 2+3, это не означает, что она обладает пониманием чисел или математических операций в привычном для нас смысле. Она отвечает «5», потому что во время обучения миллиарды подобных примеров закрепили эту информацию в её статистических связях. Однако следует поставить ей более сложную задачу, например, вычислить сумму двух чисел из сорока знаков, и модель способна дать правильный ответ даже без специального обучения на таких примерах. Это свидетельствует о том, что модель может применять определённые обобщённые принципы для решения новых задач, с которыми она не сталкивалась ранее.

Даже OpenAI не предполагала таких возможностей. Это вызывает важный вопрос: если модель способна демонстрировать подобные способности, значит ли это, что она «поняла» принципы арифметики? Или это просто результат удачной манипуляции математическими связями в многомерном пространстве параметров?

Ещё один интересный аспект LLM — их способность к переносу знаний. Например, если модель учили на англоязычных текстах о медицине, она сможет ответить на медицинские вопросы на других языках, даже если подобных примеров не было в соответствующей датасете. Это явление называют трансфером знаний, и оно показывает, что большие языковые модели могут обобщать знания за пределами конкретного контекста или языка.

Дискуссия о «уме» LLM поднимает не только технические, но и философские вопросы: что такое понимание? Что такое мышление и собственное сознание?

Ответы на эти вопросы могут иметь значение не только для науки, но и для этики, поскольку роль больших языковых моделей в обществе постоянно растёт, и они уже влияют на принятие решений во многих сферах.

«ЧЕРНЫЙ ЯЩИК» НЕЙРОСЕТИ, И ЧТО ДЕЛАЕТ ЧЕЛОВЕК ЧЕЛОВЕКОМ?

Особенность современных нейросетей, таких как GPT-4, состоит в том, что вместо чёткого алгоритма, решающего задачи последовательно, они действуют через сложную сеть связей между миллиардами параметров. Их обучают на огромных объёмах данных, что позволяет выявлять паттерны и взаимосвязи, которые трудно было бы запрограммировать вручную. Это рождает миф о нейросети как «чёрный ящик»: хотя мы понимаем базовые математические принципы их работы, в деталях разобраться трудно, и многие решения, которые принимают модели, остаются для нас загадкой.

Одной из таких особенностей есть так называемые emergent abilities — неожиданные способности, которые модель демонстрирует, хотя они не были заложены во время обучения. Например, большие модели могут решать задачи логического анализа или речевые головоломки, которые, казалось бы, нуждаются в сложном понимании текста. Учёные до конца не понимают, почему возникают такие возможности, и исследуют, как их предусматривать и контролировать.

Дополнительно, проблема объяснения процессов в нейросетях создала новое направление в исследованиях — интерпретированность моделей (model interpretability). Учёные разрабатывают инструменты для визуализации внутренних «слоёв» нейросетей, чтобы понять, как модель обрабатывает конкретные запросы. конкретные узлы нейросети и эти активации формируют окончательный результат.

Ещё одна интересная деталь — так называемые prompt engineering или оптимизация запросов. То, как пользователь формулирует запрос, может оказывать существенное влияние на ответ модели, ведь даже небольшие изменения в формулировке способны активировать различные части нейросети. Это свидетельствует о том, что языковые модели способны учитывать контекст и гибко адаптироваться к нему, что является невероятным достижением, но в то же время дополнительным слоём сложности для исследователей.

В философии существуют разные подходы к определению мышления и сознания, но две базовые школы — рационализм и эмпиризм — предоставляют разные перспективы на сравнение человека и искусственного интеллекта. С точки зрения рационализма, мышление определяется как способность к абстрактному мышлению, логическому анализу и генерированию новых идей на основе внутренних знаний. Человек, наделённый сознанием, имеет уникальную возможность рефлексии, что позволяет ему осознавать свои мысли и чувства. В этом контексте ИИ, даже если он способен выполнять сложные вычисления и анализировать большие объёмы данных, не имеет подлинного сознания и, соответственно, не может ощущать или интерпретировать эти данные в контексте человеческого опыта.

Кроме того, эмпиризм подчёркивает опыт как основу всего знания, считая, что мышление возникает вследствие чувственного восприятия мира. Человек формирует свои мысли на основе личного опыта и взаимодействия с окружающей средой, что делает его сознание сложным и многогранным. В контексте ИИ, хотя модели могут «учиться» на больших объёмах данных, их «мышление» базируется на алгоритмах и шаблонах, не учитывающих субъективный опыт. Таким образом, несмотря на способность ИИ генерировать ответы и выявлять закономерности, его «сознание» остаётся исключительно механистическим и лишённым той глубины, которую имеет человеческое мышление.

РАЗВИТИЕ МЕХАНИСТИЧЕСКОЙ ИНТЕРПРЕТОВАННОСТИ

Один из методов, который обещает ответить на вопрос о понимании моделей — это механистическая интерпретированность. Она анализирует внутренние механизмы модели, то есть весы и параметры, по сути, формируют блоки логики, которые «изучаются» сетью. Это направление основал исследователь OpenAI Крис Ола, чтобы отделить подход к работе с языковыми моделями от подхода к анализирующим сетям.

Суть механистической интерпретации состоит в том, чтобы выделить и описать алгоритмы, применяемые моделью. Представьте, что мы можем изучить алгоритм, созданный моделью, проверить его надёжность и адекватность, также как разработчик тестирует собственный код. Это позволило нам лучше понимать природу моделей, приближая их к более «прозрачным» программам.

Хотя это направление находится на ранней стадии, уже есть успешные исследования, дающие основания для оптимизма. Многие сравнивают его с нейронаукой, ведь принципы взаимодействия нейронов в мозге ещё мало изучены, однако мы знаем, что эти сигналы важны. Подобно этому, параметры языковых моделей содержат информацию, но мы только начинаем понимать, как именно.

ПОЧЕМУ ПОНИМАНИЕ МОДЕЛЕЙ ВАЖНО? И ПОЧЕМУ НАМ ТАК СТРАШНО?

Важным аспектом нейросетей является то, что они полностью контролируются компьютером, и мы можем исследовать их изменения и реакции с абсолютной точностью, без потерь информации, свойственной нам, людям. Также языковые модели являются стабильными, что позволяет запускать эксперименты в контролируемых условиях и проверять реакцию на те же стимулы. Например, изменение одного текстового фрагмента позволяет наблюдать, как это влияет на всеобщее решение задачи. Это сравнение с человеческим мышлением подчёркивает различия в механизмах обработки информации — мы в отличие от машин способны подвергать анализу собственные мысли, учитывать эмоции и моральные аспекты, что значительно усложняет процесс принятия решений.

И хотя у нас ещё нет полного понимания, новые подходы к интерпретированности позволяют учёным приблизиться к раскрытию загадок моделей. Это чрезвычайно важно, ведь позволит сделать нейросети более безопасными, а их решения более предсказуемыми. Однако, несмотря на эти достижения, остаётся вопрос об нравственных аспектах их использования. Если мы стремимся интегрировать ИИ в общество, нам следует разработать механизмы, которые обеспечат ответственность за решения, принятые алгоритмами, а также учитывать человеческий контекст и ценности. В этом смысле философское осмысление роли ИИ в обществе станет ключевым в формировании будущего, где технологии будут не только инструментами, но и партнёрами в нашем совместном развитии.

Мне кажется, наш страх перед технологическими изменениями не связан экономическим коллапсом или риском потери работы, а только с глубокой тревогой потери собственной идентичности. Утратив работу, например, кассира или программистки, мы не только теряем источник дохода, но и часть себя, которая формировалась вокруг этих профессий.

Многим из нас для выживания нужно быть полезным, а просто не достаточно. Более вызывает тревогу и страх. Когда мы освобождаемся от необходимости постоянно быть продуктивными, открывается пространство для более глубокого самосознания. Но это уже тема для отдельной статьи о человеке, а не ИИ.

Рекомендуем публикации по теме