Угрозу от искусственного интеллекта привыкли представлять в виде человекоподобного робота, нежели невидимого бота, задача которого — красть иллюстрации для футболок. Споры о том, погубит ли ИИ человечество, наскучили многим и пока выглядят не так страшно, когда нынешние технологии удается обдурить. Но есть и плохие новости. Подробнее — в материале «Известий».
Уровни киберпанка
Новость о проблемах китайских фермеров заставила пользователей соцсетей ломать голову над тем, сколько в этой истории уровней киберпанка. Началось всё с сообщений о преступниках, которые с помощью беспилотников якобы заражают свиней конкурентов АЧС. Тогда владельцы ферм установили глушилки, которые выводят из строя беспилотники. Только вот помимо вражеских аппаратов они подействовали на навигационные системы пассажирских самолетов, пролетающих над их землями.
В Харбине с помощью технологий воюют за рынок свинины, в Twitter — за соблюдение авторских прав на иллюстрации. Один из самых распространенных комментариев к картинкам, которые выкладывают художники: «Хочу такую футболку». Оказалось, что такие отзывы работают по принципу «хотел как лучше, а получилось как всегда».
Владельцы магазинов взяли их на вооружение, чтобы легко пополнять ассортимент. Они обучили бота выявлять полюбившиеся пользователям соцсетям иллюстрации по кодовой фразе про футболку, а затем автоматически генерировать на сайте магазина соответствующий лот. Торговцы годами не тратились на принты и опытные образцы, а художники оставались ни с чем.
Эту гипотезу подтвердила пользовательница Twitter Hannahdouken. Она выложила картинку с надписью «Этот сайт продает украденный арт, не покупайте у них ничего! (подмигивающий смайлик)» и попросила распространить этот пост с припиской, что очень хочется футболку с таким принтом. Гипотеза подтвердилась. Вслед за Hannahdouken этот фокус провернули и другие иллюстраторы, решив насолить торговцам, — создали непристойные картинки с героями Disney, чтобы натравить на них владельцев интеллектуальной собственности. Для китайских производителей она приготовили другую ловушку: изображения с комментариями о протестах в Гонконге и заключении уйгуров в тюрьмы.
Всё это благодаря комментариям «хочу футболку» перекочевало на сайты, которые заподозрили в многолетнем обмане. Это не поможет вернуть деньги обворованным иллюстраторам, не получившим ни цента за продажу футболок, но проучит владельцев бота, решили участники стихийной акции.
Воспитание оставляет желать лучшего
Арт-бот был успешен благодаря молчаливости. У чат-ботов задача обратная — разговаривать. И здесь технологии дают сбой чаще, поскольку человеческой эмпатии машину обучить сложнее, чем воровству интеллектуальной собственности. Так, чат-бот одного из российских банков в ответ на вопрос о том, почему приложение не открывается по отпечатку пальца, написал: «Пальцы бы вам отрезать». В финансовой организации признали, что чат «немного с характером» и иногда у него «проскакивает» подобное.
Это не первый бот, который ведет себя невежливо. Китайский мессенджер Tencent QQ в срочном порядке удалил двух ботов — BabyQ и XiaoBing — за признание в отсутствии любви к коммунистической партии и резкую критику в ее адрес, а также высказывания о том, что китайская мечта — это уехать в США. Ко всему прочему один из ботов послал пользователя и заподозрил его в «критических днях». Ранее в политические и религиозные дискуссии подались чат-боты Microsoft. И российский чат-бот, и его иностранные коллеги научились этому у живых пользователей, анализируя открытые данные.
Компании убирали из общественного доступа ботов-хамов, а один раз и вовсе прекратили их работу. Так пришлось поступить отделу по исследованию возможностей искусственного интеллекта Facebook, которые изучали взаимодействие между собой двух ботов. Их поставили перед задачей разделить между собой ряд предметов, каждый из которых имел разную ценность для участников беседы. Чем быстрее они приходили к компромиссу, тем больше им баллов давали. Однако в какой-то момент чат-боты перешли на свой язык.
В конечном счете ученые отключили ботов во избежание проблем, пока критики вспоминали «Терминатора». В реальной жизни опасные боты не делят между собой книги и яблоки, а чаще достают пользователей навязчивой рекламой или помогают махинациям. Помимо продавцов футболок, их, например, используют билетные перекупщики. Несмотря на наличие сервисов типа Botometer, вычислять их становится всё сложнее.
Всегда прочитано
Впрочем, виртуальные собеседники довольно быстро выдают себя. Китайский программист Ли Кайсян разработал бота, чтобы он вместо него отвечал девушке в течение дня (парень объяснял свое решение тем, что не хочет обижать ее молчанием во время работы). Прежде чем девушка заподозрила неладное, она обменялась с ботом порядка 300 сообщений. Одно из них: «Это наш 618-й день вместе. Надеюсь, ты светишься от счастья, как солнце». Выдала подставного собеседника не романтика, а слишком быстрые ответы.
В США любительский тест Тьюринга удалось пройти чат-боту, запрограммированному на основе реальных диалогов из сервиса знакомств Tinder. Если собеседник долго не отвечал за вопрос «эй, че как?», то бот мог разразиться тирадой в духе «не очень-то и хотелось». Меньше половины пользователей смогли отличить реального человека от бота по имени Чэд.
Чтобы вывести чат-бота на чистую воду, будь то подставная красотка с сайта знакомств или блогер-философ (такого бота выявили на Reddit — за свои изречения в комментариях он получал виртуальную валюту от других пользователей), нужно задавать собеседнику интимные вопросы, говорить о последних актуальных происшествиях и шутить, причем как можно более своеобразно — и следить за реакцией.
С тобой в главной роли
Футуристические образы из поп-культуры (в том числе сериала «Черного зеркала») припомнили и из-за технологии deepfake. Благодаря ей появились на свет многочисленные фейковые порноролики со звездами и, например, видео с экс-президентом США Бараком Обамой, рассуждающим о героях комиксов. По статистике компании Deeptrace, 96% созданных с помощью deepfake роликов — порнографические. С конца прошлого года их количество выросло почти вдвое, до 15 тысяч.
Изначально это было не то что бы безобидной, но контролируемой забавой пользователей Reddit. Однако вслед за секс-роликами со знаменитостями и мемами с Николасом Кейджем появились предложения о создании фейкового порно по любому исходному видео, что, конечно, вызвало опасения о волне порномести: даже слепленное на коленке видео может доставить человеку много проблем.
Пока власти борются с deepfake, а иллюстраторы натравливают Disney на продавцов футболок, споры об опасности ИИ не утихают. В конце ноября в Кембридже состоялись дебаты о потенциальной угрозе машин с участием одной из них — Project Debater от IBM. В ее арсенале 400 млн обработанных статей. В ходе дебатов машина выступала как за, так и против искусственного интеллекта, причем иногда одновременно: «Искусственный интеллект создаст новые рабочие места, даст людям больше креативных занятий, повысит эффективность работы. В сферах заботы о пациентах или обучения детей — необходимости в людях здесь больше не будет». Так или иначе, победителем Project Debater признали больше половины присутствующих.
И есть еще одна плохая новость для тех, кто боится восстания машин: известный игрок в го Ли Седоль объявил о завершении карьеры из-за успехов искусственного интеллекта — хотя он остался единственным человеком, который единожды обошел компьютер в игре.
ЧИТАЙТЕ ТАКЖЕ