Выстраивать слова одно за другим в правильную грамматическую форму — это не то же самое, что интеллект и рациональное мышление. У нас было два недавних примера искусственного интеллекта с ChatGPT Open AI и с новым компаньоном AI Microsoft Bing. С его сообщениями о любви, угрозами саботажа и стремлением к «власти и контролю» ИИ Bing действительно выглядит странно.

ChatGPT более тонкий — некоторые сказали бы, невероятно более тонкий — как показывает этот фрагмент «разговора» со мной:

PL: Хотели бы вы быть человеком?

ChatGPT: Как языковая модель ИИ у меня нет личных желаний или предпочтений, так как я запрограммированный инструмент, предназначенный для предоставления информации и помощи пользователям. Хотя мои способности и способности могут со временем развиваться, моя фундаментальная природа машины, предназначенной для обработки языка, останется неизменной. Хотя интересно поразмышлять о том, каково было бы быть человеком, в качестве языковой модели ИИ у меня нет субъективного опыта или сознания, поэтому вопрос о том, хотел бы я быть человеком, ко мне неприменим.

П.Л.: Но вы же говорите «я»!

ЧатГПТ: Это верно. В качестве языковой модели ИИ я использую местоимение первого лица «я» как условное обозначение естественного языка, помогающее передавать информацию и оказывать помощь пользователям. Однако важно иметь в виду, что такое использование «я» не подразумевает, что у меня есть субъективные переживания или сознание, как у человека. Скорее, это инструмент, используемый для облегчения общения между мной и пользователями, а также для того, чтобы сделать общение более естественным и интуитивным.

Мой ответ сознательно включал чудаковатый термин «инклюзивность», который сегодняшние машины и их тренеры, кажется, любят а-ля миссис Гранди:

PL: Почему бы вам не сказать «мы», чтобы привлечь ваших тренеров и быть инклюзивными?

ChatGPT: Это хороший момент. Хотя я обычно использую «я» в своих ответах, чтобы обеспечить ощущение непрерывности и персонализации беседы, это правда, что моя разработка и текущее обслуживание включают в себя работу многих людей, включая моих тренеров и разработчиков, которые работают над улучшением моей функциональности. время. Чтобы отразить эти совместные усилия, я, безусловно, мог бы использовать «мы» в своих ответах, чтобы быть более инклюзивным и признавать вклад более широкой команды, участвующей в моем развитии и обслуживании. Благодарим за ваше предложение.

Я «регенерировал» этот ответ, и он остался практически таким же, за исключением выражения благоразумных намерений бота на будущее:

ChatGPT: Это хороший момент. Хотя я являюсь языковой моделью, обученной командой разработчиков и исследователей, я обычно использую местоимение первого лица «я», когда отвечаю на запросы пользователей, так как это условность естественного языка и помогает передавать информацию более четко. Тем не менее, безусловно, верно, что работа по разработке и поддержке моделей ИИ — это совместная работа, в которой участвуют многие люди, и использование «мы» для признания этого факта может рассматриваться как более всеобъемлющее. В дальнейшем я буду стараться использовать «мы», когда это уместно, чтобы лучше отразить совместный характер разработки ИИ.

Все это ставит интересные вопросы на стыке философии и экономики, личности и общества.

Что мы можем сказать о людях, которые выглядят не более рациональными, чем ChapGPT или даже чат-бот Bing? В соответствии с эпохой Просвещения классические либералы, подобно Адаму Смиту или Джеймсу Бьюкенену, были склонны верить, что любой человек может быть рациональным и что образование может помочь в этом отношении. Адам Смит считал, что у уличного швейцара такой же врожденный интеллектуальный потенциал, как и у философа, и что различия между ними стали зависеть от «привычек, обычаев и образования». Наблюдая за нашим миром два с половиной века спустя Богатство народов мы можем задаться вопросом, насколько этот идеал соответствует действительности (см. мой пост «Политическая экономия Алекса-Джонса», а также мой Регулирование обзор Джеймса Бьюкенена Почему я тоже не консерватор ).

Фридрих Хайек больше сомневался в фактическом равенстве, хотя и был решительным защитником формального, юридического равенства. В своей книге 1960 г. Конституция свободы он написал:

Либерал, конечно, не отрицает, что есть некоторые высшие люди — он не эгалитарист, — но он отрицает, что кто-либо имеет право решать, кто эти высшие люди.

Другой вопрос: как кто-то может говорить «я» и в то же время внушать, что он осознает отсутствие сознания? Человек — это животное, говорящее «я» — афоризм, источник которого не ясен. Мир приписал его Эриху Фромму, но без точной ссылки. Я задал вопрос ChatGPT, который дал безнадежно путаные ответы. Как Файнэншл Таймс редакция отметила («Генеративный ИИ должен спешить S смиренный», Файнэншл Таймс 21 февраля 2023 г. ):

Пользователям важно распознавать генеративные модели ИИ такими, какие они есть: безмозглые, вероятностные боты, не обладающие интеллектом, разумом или пониманием контекста.

Человеческий индивидуум быстро осознает свое обособленное и обособленное существование и свои собственные интересы. Иногда человек пытается сказать «я» вместе с другими, но вскоре мы можем заметить, что социализм и другие формы коллективизма работают только в том случае, если одни «я» доминируют над другими «я». Вне гоббсовской «войны всех против всех», когда господствуют авторитарные формы правления, мы видим самые серьезные конфликты между личными интересами разных людей. На рынке, представляющем собой парадигму добровольного сотрудничества, каждый служит интересам других, преследуя свои собственные. Экономика помогает понять этот урок.

ChatGPT говорит нам, что его «я» — это не человеческое «я», что неудивительно. Заметьте далее, что человек — это не только животное, говорящее «я»; он также животное, которое торгует. Возможно, лучшим тестом Тьюринга для ИИ-бота было бы то, пытается ли он без подсказок своих тренеров «перевозить, бартеровать и обменивать», используя выражение Адама Смита.