Что может сказать нам шотландский философ XVIII века о его фундаментальных ограничениях в нашу эпоху все более сложного искусственного интеллекта? Анализ Дэвида Юма того, как мы приобретаем знания посредством опыта, а не чистого разума, предлагает интересную параллель с тем, как современные системы ИИ учатся на данных, а не на явных правилах.

В своей новаторской работе Трактат о человеческой природе Юм утверждал, что «все знания вырождаются в вероятность». Это заявление, революционное для своего времени, бросило вызов преобладающей картезианской парадигме, согласно которой определенные знания могут быть достигнуты с помощью чистого разума. Эмпиризм Юма пошел дальше, чем его современники, подчеркнув, как наше знание фактов (в отличие от отношений идей, таких как математика) зависит от опыта.

Эта точка зрения обеспечивает параллель с природой современного искусственного интеллекта, особенно с большими языковыми моделями и системами глубокого обучения. Рассмотрим феномен «галлюцинаций» ИИ — случаев, когда модели генерируют достоверную, но фактически неверную информацию. Это не просто технические сбои, а отражают фундаментальный аспект того, как нейронные сети, как и человеческое познание, работают на вероятностных, а не детерминистских принципах. Когда GPT-4 или Claude генерируют текст, они не получают доступ к базе данных определенных фактов, а скорее выбирают выборку из вероятностных распределений, полученных из их обучающих данных.

Эта параллель становится глубже, когда мы изучаем архитектуру современных систем искусственного интеллекта. Нейронные сети обучаются, корректируя веса и смещения на основе статистических закономерностей в обучающих данных, по сути создавая вероятностную модель взаимосвязей между входными и выходными данными. Это имеет некоторые параллели с описанием Юма о том, как люди узнают о причине и следствии посредством повторяющегося опыта, а не посредством логической дедукции, хотя конкретные механизмы сильно различаются.

Эти философские идеи имеют практическое значение для разработки и внедрения ИИ. Поскольку эти системы все больше интегрируются в важнейшие области – от медицинской диагностики до принятия финансовых решений – понимание их вероятностной природы становится решающим. Точно так же, как Юм предостерег от переоценки достоверности человеческих знаний, мы должны опасаться приписывать ненадлежащий уровень уверенности результатам ИИ.

Текущие исследования в области согласованности и безопасности ИИ отражают эти соображения Юма. Усилия по разработке методов количественной оценки неопределенности для нейронных сетей, позволяющих системам выражать степень уверенности в своих выходных данных, согласуются с анализом вероятности Юма и его акцентом на роли опыта в формировании убеждений. Работа над интерпретируемостью ИИ направлена ​​на то, чтобы понять, как нейронные сети достигают своих результатов, путем изучения их внутренних механизмов и влияния на обучение.

Проблема обобщения в системах искусственного интеллекта (хорошо справляющихся с обучающими данными, но терпящих неудачу в новых ситуациях) напоминает знаменитую проблему индукции Юма. Точно так же, как Юм поставил под сомнение наше логическое обоснование расширения прошлых моделей в будущие предсказания, исследователи ИИ пытаются обеспечить надежное обобщение за пределами обучающих распределений. Развитие поэтапного обучения (когда системы ИИ учатся на минимальных примерах) и трансферного обучения (когда знания из одной задачи применяются к другой) представляет собой технические подходы к этой основной проблеме обобщения. В то время как Юм определил логическую проблему обоснования индуктивного рассуждения, исследователи ИИ сталкиваются с конкретной инженерной проблемой создания систем, которые могут надежно обобщать данные, выходящие за рамки их обучающих данных.

Скептицизм Юма в отношении причинно-следственной связи и его анализ пределов человеческого знания остаются актуальными при анализе возможностей ИИ. Хотя большие языковые модели могут генерировать сложные выходные данные, которые, казалось бы, демонстрируют понимание, по своей сути они представляют собой системы сопоставления шаблонов, обученные на тексте и работающие на статистических корреляциях, а не на причинно-следственном понимании. Это согласуется с пониманием Юма о том, что даже человеческое знание причины и следствия основано на наблюдаемых закономерностях.

Поскольку мы продолжаем развивать возможности искусственного интеллекта, философская концепция Юма остается актуальной. Это напоминает нам о том, что нужно относиться к информации, генерируемой ИИ, со скептицизмом и разрабатывать системы, признающие их вероятностную основу. Это также предполагает, что мы вскоре сможем приблизиться к пределам возможностей ИИ, даже если будем вкладывать в модели больше денег и энергии. Интеллект, как мы его понимаем, может иметь пределы. Набор данных, которые мы можем предоставить LLM, если он будет ограничен рукописным текстом, быстро исчерпается. Это может показаться хорошей новостью, если вас больше всего беспокоит экзистенциальная угроза, исходящая от ИИ. Однако, если вы рассчитываете на то, что ИИ будет способствовать экономическому прогрессу на протяжении десятилетий, возможно, было бы полезно рассмотреть 18 й Философ XX века. Анализ Юма человеческого знания и его зависимости от опыта, а не от чистого разума, может помочь нам задуматься о присущих искусственному интеллекту ограничениях.


Ссылки по теме

Моя статья о галлюцинациях – https://journals.sagepub.com/doi/10.1177/05694345231218454

Расс Робертс об искусственном интеллекте – https://www.econtalk.org/eliezer-yudkowsky-on-the-dangers-of-ai/

Коуэн о Дваркеше – https://www.dworkeshpatel.com/p/tyler-cowen-3

Блоги Liberty Fund об искусственном интеллекте


Джой Бьюкенен — доцент кафедры количественного анализа и экономики Школы бизнеса Брока Сэмфордского университета. Она также часто пишет статьи на нашем дочернем сайте AdamSmithWorks.