
В 1950-х годах математик Алан Тьюринг, которого многие помнят как гения криптографии, возглавлявшего британские усилия по взлому немецких кодов «Энигмы» во время Первой мировой войны, задал вопрос, который будет преследовать ученых на протяжении десятилетий: «Могут ли машины думать?»
Тьюринг предложил «игру в имитацию», чтобы ответить на него. Эта имитационная игра, известная как тест Тьюринга, проста: человек-участник должен обменяться серией типизированных взаимодействий с двумя респондентами, компьютером и человеком. Оба ответчика, один из плоти, а другой из контуров, были спрятаны за перегородкой. Если по прошествии определенного времени следователь не сможет отличить их друг от друга, компьютер фактически победит, что говорит о том, что такую машину можно считать способной к мышлению.
В эпоху искусственного интеллекта можно с уверенностью сказать, что машины могут с блеском пройти тест Тьюринга. Теперь, когда у нас есть GPT-4, дипфейки и модель преобразования текста в видео «Sora» от OpenAI, которая может создавать высокореалистичные видеоклипы из простых текстовых подсказок, кажется, что мы приблизились к мыслящей машине, как никогда раньше.
Общий искусственный интеллект
Сегодня вопрос Тьюринга превратился в более актуальный. Когда машины будут мыслить в реальном, подлинном смысле того же, в каком могут мыслить люди? И что происходит, когда они это делают?
Общий искусственный интеллект (AGI), точка, в которой машины могут выполнять любую интеллектуальную задачу так же хорошо, как и люди, долгое время был предметом научной фантастики. Но, согласно обширному анализу прогнозов 8590 ученых, предпринимателей и исследователей ИИ, AGI может быть ближе, чем мы думаем. Опросы среди этих экспертов предполагают 50-процентную вероятность того, что он может произойти к 2040 году. Некоторые даже делают ставку на 2030-е годы.
За последние годы эта временная шкала резко изменилась. Всего десять лет назад многие исследователи считали, что AGI наступит через столетие. Но стремительное развитие больших языковых моделей, таких как GPT-4, ускорило ожидания и вызвало интенсивные дебаты о том, что на самом деле означает AGI, достижим ли он и как он изменит наш мир.
Дорога к AGI вымощена смелыми прогнозами и изрядной долей чрезмерного оптимизма. В 1965 году пионер искусственного интеллекта Герберт А. Саймон заявил, что машины смогут выполнять любую человеческую работу в течение 20 лет. В 1980-х годах японский проект «Компьютер пятого поколения» обещал к 1990-м годам машины, способные вести непринужденные разговоры.
Тем не менее, сегодня консенсус среди исследователей ИИ меняется.
Приблизились ли мы к Сингулярности?
Опросы, проведенные в период с 2012 по 2023 год, показывают растущее убеждение в том, что AGI не только возможен, но и вероятен в течение следующих нескольких десятилетий. В 2023 году опрос 2 778 исследователей ИИ оценил 50% вероятность достижения «высокого уровня машинного интеллекта» к 2040 году. Предприниматели настроены еще более оптимистично: такие деятели, как Илон Маск и Сэм Альтман из OpenAI, прогнозируют, что AGI может появиться уже в 2026 или 2035 году. Тем не менее, у технологических лидеров есть стимул приукрашивать темпы прогресса ИИ, поскольку это может помочь им получить больше финансирования или увеличить свои акции.
Что движет этим сдвигом? Экспоненциальный рост вычислительной мощности, прогресс в алгоритмах и появление таких моделей, как GPT-4, которые демонстрируют удивительные универсальные способности в таких областях, как кодирование, право и математика. Отчет Microsoft о GPT-4 за 2023 год даже вызвал споры о том, представляет ли он раннюю форму AGI. Он соответствовал человеческим показателям по математике, программированию и праву (хотя и не совсем экспертному уровню).
В прошлом году футуролог Рэй Курцвейл в своей последней книге, Сингулярность ближе , утверждает, что мы находимся всего в нескольких годах от ИИ человеческого уровня. Курцвейл ранее придумал термин «сингулярность» — точку, в которой машины превосходят человеческий интеллект и начинают совершенствоваться с неконтролируемой скоростью.
«Человеческий интеллект обычно означает ИИ, который достиг способностей наиболее квалифицированных людей в определенной области, а к 2029 году будет достигнут во многих отношениях. (Возможно, пройдет несколько лет после 2029 года, когда ИИ не превзойдет лучших людей в нескольких ключевых навыках, таких как написание оскароносных сценариев или генерирование новых глубоких философских идей, хотя это и произойдет.) AGI означает ИИ, который может делать все, что может любой человек, но на более высоком уровне. ОИИ звучит сложнее, но в то же время он происходит. И моя оценка на пять лет на самом деле консервативна: Илон Маск недавно сказал, что это произойдет через два года», — сказал Курцвейл.
Курцвейл удвоил ставку и сделал еще один дикий прогноз. По его словам, к 2045 году люди смогут увеличить свой интеллект в миллион раз с помощью передовых интерфейсов мозга. Эти интерфаCES, по словам Курцвейла, может включать в себя наноботов, неинвазивно встраиваемых в наши капилляры, что обеспечивает бесшовную интеграцию биологического и искусственного интеллекта.
Но не все в этом убеждены. Некоторые исследователи утверждают, что человеческий интеллект слишком сложен для воспроизведения. Ян Лекун, пионер глубокого обучения, призвал полностью отказаться от термина AGI, предложив вместо этого сосредоточиться на «продвинутом машинном интеллекте». Другие отмечают, что интеллект сам по себе не решает всех проблем — машины все еще могут испытывать трудности с задачами, требующими творчества, интуиции или физической ловкости.
Действительно ли мы хотим Сингулярности?
Научная фантастика уже давно исследует опасности сверхразумных машин, начиная с «Законов робототехники» Айзека Азимова и заканчивая злобным HAL 9000 в 2001: Космическая одиссея . Сегодня эти опасения разделяют некоторые разработчики ИИ, которые беспокоятся о рисках создания систем умнее нас.
В обзоре 16 статей из научной литературы за 2021 год, начиная от «философских дискуссий» и заканчивая «оценками текущих структур и процессов в отношении ОИИ», был выявлен ряд рисков. К ним относятся выход ОИИ из-под контроля владельцев/менеджеров-людей, постановка или разработка небезопасных целей, разработка небезопасных ОИИ, ОИИ с плохой этикой, моралью и ценностями; неадекватное управление AGI и экзистенциальные риски.
Самосовершенствующийся ОИИ может произвести революцию в таких областях, как медицина, климатология и экономика, или же он может представлять экзистенциальные угрозы, если не будет соответствовать человеческим ценностям. Это стимулировало растущую область «исследований выравнивания», направленных на обеспечение того, чтобы интеллектуальные машины действовали в интересах человечества.
По мере того, как гонка за ОИИ ускоряется, растут и вопросы. Откроют ли квантовые вычисления новые горизонты в машинном интеллекте? Сможем ли мы преодолеть ограничения классических вычислений по мере замедления действия закона Мура? И, возможно, самое главное, как мы можем обеспечить, чтобы ОИИ приносил пользу человечеству, а не вред ему?
Прогнозирование будущего ИИ — рискованное дело. Возможно, самое большее, что мы получим от путешествия к AGI, будет связано как с пониманием самих себя, так и с созданием более умных машин.
ЛУЧШИЙ