«Искусственный интеллект (ИИ) научился…» – такие заголовки каждый раз провоцируют очередную серию дебатов на тему скорой победы машины над человеком.

Хотя в новостях нередко преувеличивают достижения и притягивают факты за уши, с каждым годом становится все больше задач, где ИИ – пусть и с оговорками – обходит человека.

Игры – та область, в которой совсем недавно человек считал себя непобедимым, благодаря нестандартному мышлению и огромному, трудно просчитываемому числу вариантов. Но сейчас здесь безраздельно властвуют машины, а полученный при создании игровых ИИ-систем опыт открывает огромные возможности для переноса подходов к их обучению на более серьезные задачи.

Сегодня ИИ – это в первую очередь сложные самообучающиеся алгоритмы-нейросети, полученные путем «глубокого обучения» (deep learning) на огромных массивах данных. Победы в играх, как правило, основаны на технике reinforced learning («обучение с подкреплением»): компьютер ничего не знает о правилах игры, но учится, играя невероятное количество матчей сам с собой. Люди при этом лишь настраивают сложную схему поощрений за «правильные» действия.

В каких играх человек уже уступил ИИ? Есть ли ограничения? И какие перспективы? Настоящее Время предлагает подборку избранных игровых ИИ-достижений последних лет.

Май 1997. Шахматы

Суперкомпьютер IBM Deep Blue вошел в историю как первая машина, сумевшая победить в шахматах гроссмейстера-человека. Чемпион мира Гарри Каспаров сумел выиграть в одной из партий, другая закончилась вничью, но Deep Blue выиграл дважды и стал победителем поединка.

Строго говоря, Deep Blue не был ИИ в современном понимании: он просто умел быстро искать среди миллионов вариантов лучшие ходы по определенным правилам, установленным людьми.

Через 20 лет Google представил мощную ИИ-систему DeepMind AlphaZero: она научилась шахматам, японским шахматам и го с нуля, причем в каждой дисциплине AlphaZero сумела победить лучшего компьютерного игрока. А компьютеры, по крайней мере – в шахматах, не оставляли людям шансов примерно со времен матча между чемпионом мира Владимиром Крамником и Deep Fritz в 2006 году (2-4).

Март 2016. Го

В этой популярной китайской логической игре, чтобы просчитать ситуацию на четыре хода вперед, надо проанализировать 320 миллиардов ходов. Это тяжелая вычислительная задача (лучший суперкомпьютер 2008-го IBM Roadrunner просчитывал бы восемь ходов вперед целых 138 часов) – поэтому серьезных компьютерных оппонентов людям-игрокам не попадалось.

До мая 2017-го, когда прошел исторический матч между ИИ AlphaGo (Google DeepMind) и чемпионом мира по го Ли Седолем. AlphaGo выиграл со счетом 4-1. Позже этот успех развил «универсальный» игровой ИИ AlphaZero.

Июль 2018. Quake III

Казалось бы, в чем смысл тренировать ИИ-систему, которая хорошо бы играла в легендарный шутер? Исследователи из DeepMind называют это сложной исследовательской задачей: как научить компьютер с нуля ориентироваться в трехмерном игровом пространстве с неидеальной информацией (неизвестно, где спрятался враг).

Ученые также решили не упрощать задачу и не описывать пространство известными параметрами («расстояние до красного_игрока_1 = 55»), а просто показывать ИИ игровой экран.

Эта задача уже непростая. А для ее усложнения в DeepMind решили проверить еще и способы обучения разных ИИ-игроков командному взаимодействию, поэтому режимом игры был выбран «захват флага» – группе игроков нужно действовать скоординированно, чтобы утащить флаг с вражеской базы, не потеряв при этом свой.

Результат? Вероятность победы команд под управлением ИИ достигала 74%. У сильных людей-игроков – всего 52%.

Январь 2019 . Starcraft II

В этом году искусственному интеллекту покорилась одна из самых популярных стратегий реального времени ХХI века – игра Starcraft II. В начале года нейросеть Deepmind AlphaStar (Google) легко победила (счет 5-1 или 5-0, смотря как считать) одного из лучших в мире игроков в Starcraft II, поляка Грегоржа MaNa Коминча.

Игра требует не только молниеносной реакции и четкого управления сотнями боевых единиц, но и долгосрочного стратегического планирования на больших картах. К тому же Starcraft II не раскрывает игрокам всей важной информации о состоянии игрового поля: в отличие от, скажем, шахмат, игровая карта не открыта все время, неизвестны запасы ресурсов врага, размер и положение его армии и т.п. То есть, научить ИИ всем премудростям и хитростям игры непросто. Каждая из версий AlphaStar тренировалась на ИИ-коллегах, отыграв примерно по 200 человеческих лет.

Несмотря на эффектную победу, игра была ограничена одной расой (из трех) и первое время полным обзором карты для AlphaStar – человеку постоянно надо переключать позицию, показываемую на экране, а ИИ сначала словно смотрел на огромный монитор, умещавший всю карту сразу. Все ограничения, похоже, можно было бы снять, просто увеличив время тренировки модели.

Апрель 2019 . Dota 2

ИИ Open AI Five победил команду OG, прошлогодних чемпионов крупнейшего турнира по игре Dota 2. Правда, команды были ограничены всего 17 героями в режиме Captain’s Draft, не работали внутриигровые функции создания иллюзорных копий и вызова существ-помощников.

Создатели, как и в случае со Starcraft, не объясняли Five сложные правила Dota 2, а «научили учиться»: с нуля система сама разобралась в правилах, играя сама с собой –45000 часов за десять месяцев.

Июль 2019. Покер

Успех в популярной карточной игре немалым образом зависит от умения покериста блефовать и вычислять блефующих соперников.

В 2017-м вышли ИИ-система DeepStack (университет Альберты), легко обыгрывающая профессионалов, а также проект Libratus от специалистов из университета Карнеги Меллон, который в 20-дневном марафоне выиграл виртуальные $1,7 млн у четырех профессиональных покеристов в матчах один на один.

Тот же Карнеги Меллон и Facebook в июле 2019 показали самую совершенную ИИ-систему для покера – Pluribus (pdf). Она умеет успешно играть (в том числе с использованием блефа) сразу с пятью оппонентами. Система работает на достаточно недорогом компьютере, а вычислительные ресурсы для обучения Pluribus обошлись всего в $150: чтобы стать непобедимым, боту понадобилось разыграть триллионы покерных раздач с пятью своими клонами.

Поиграли, и что дальше?

Искусственный интеллект – одно из ключевых направлений развития науки во всем мире. Область его применения, разумеется, не ограничивается играми – скорее, это отправная точка для новых способов применения ИИ в реальной жизни.

Компании-лидеры, в основном из США и Китая (Google, Facebook, Amazon, Microsoft, Tencent, Alibaba), инвестируют миллиарды в развитие ИИ. И каждый год приносит что-то впечатляющее: генерацию правдоподобных видео, создание текстов, картин, музыки. С каждым годом становятся все автономнее автомобили.

В последнее время все чаще говорят об этике использования ИИ и потенциальных больших проблемах: среди очевидных вещей вроде потери многих рабочих мест (и появления новых), специалисты обеспокоены предвзятостью ИИ-решений во многих задачах, а также рисками использования ИИ в военных системах.

При этом до главного Золотого Грааля ИИ, «общего искусственного интеллекта» (AGI, Artificial Generalized Intelligence), человечеству еще далеко. AGI – это реализация искусственного интеллекта из фантастических книг и фильмов, система, которая сможет решать любую задачу на уровне человека или лучше. Все современные ИИ строго специализированы и не могут легко переключаться между различными направлениями: скажем, нейросеть, умеющая распознавать символы на фото, не сможет генерировать тексты, и наоборот.

Кто-то считает, что AGI в принципе недостижим, но опрошенные в 2015 году ИИ-эксперты сошлись на том (pdf), что c 50%-ной вероятностью общий ИИ появится в ближайшие 45 лет. При этом ученые из Азии в среднем были оптимистичнее, чем американцы.

По результатам другого неформального опроса, AGI изобретут к 2099.

А вот известный ученый-футуролог Рэй Курцвайль из Google считает, что это произойдет еще до 2029 года.

Даже до появления общего ИИ развитие компьютеров и робототехники приведет к глобальным изменениям на мировом рынке труда. Исследователи считают (pdf), что искусственный интеллект превзойдет людей в качестве перевода (к 2024) и по уровню школьных сочинений (2026); ИИ сможет лучше человека водить грузовики (2027) и работать в торговле (2031), писать книги (2049) и даже превзойдет людей-хирургов (2053).