Дедботы — это категория чат-ботов, которые предлагают возможность разговаривать с умершими людьми. Первые из них были разработаны до появления ChatGPT, и, оглядываясь назад, можно сказать, что они не лишены рисков. Я анализирую их в этой статье и рассматриваю с ними вопрос об уголовной ответственности.

Deadbots — это новое применение искусственного интеллекта.

Это чат-боты, которые позволяют общаться с умершими людьми, имитируя их ответы. Их развитие является частью более глобального контекста виртуализации отношений и стирания границ между физическим и цифровым мирами. Несколько недавних примеров показывают, что взаимодействие с этими искусственными интеллектами может быть опасно и иметь ужасные последствия. В связи с этим возникает вопрос об уголовной ответственности ИИ.


Джошуа Барбо поговорил со своей девушкой, которая умерла 8 лет назад

В августе 2021 года газета San Francisco Chronicles опубликовала историю Джошуа Барбо, 33-летнего канадца. Восемь лет назад молодая женщина, с которой он был в отношениях, Джессика Перейра, умерла от редкой болезни.

Бродя по Интернету, Джошуа натыкается на «Проект Декабрь», чат-бота, разработанного независимым программистом по имени Джейсон Рорер.

Затем произошло непредвиденное. После открытия аккаунта Джошуа Барбо «накормил» чат-бота сообщениями, которые он сохранил от своей умершей девушки. Основанный на библиотеке Google GPT-3, чат-бот идеально имитировал стиль Джессики и давал на удивление… человеческие ответы.



Жизнь после смерти: это уже возможно… благодаря искусственному интеллекту

Пример Джошуа Барбо показывает нам, что достижения в области искусственного интеллекта таят в себе некоторые сюрпризы для будущих приложений. Сложность траура и разнообразие культов вокруг смерти — это множество возможностей удовлетворить запрос, который до сих пор был научной фантастикой. Более того, компании не стали ждать неожиданной финансовой прибыли. Примером может служить недавний патент, поданный Microsoft на разработку чат-бота, который мог бы даже имитировать голос умершего человека.

Еще один тревожный эксперимент был реализован в Южной Корее в 2020 году с использованием сочетания виртуальной реальности и искусственного интеллекта (см. видео выше). Чан Джи-Сон на короткое время воссоединился со своей дочерью, которая умерла тремя годами ранее от болезни крови. Видео ниже, показывающее, как виртуальное встречается с реальным, тревожно и очень трогательно. Здесь ясно показаны все вопросы, которые могут возникнуть у искусственного интеллекта для преодоления пределов смерти.

Искусственный интеллект также используется, чтобы оживить семейные фотографии. Deep Nostalgia — это сервис MyHeritage, который позволяет анимировать фотографии умерших людей. Результат впечатляет, но может привести к спорным результатам, как показано на видео ниже.


Этические проблемы мертвецов

Как видите, возвращение мертвых к жизни сопряжено с рядом этических проблем. Франция была одной из первых стран, проявивших интерес к дэдботам с законодательной точки зрения. В ноябре 2021 года комитет по этике выдал премьер-министру консультативное заключение. Это мнение включает специальную главу, посвященную дедботам, и поднимает несколько вопросов:

  • Согласие умершего на использование его данных после его смерти
  • Риски, возникающие в результате узурпации личности человека (живого или умершего)
  • Психологическое воздействие на человека, беседующего с умершим

Прогресс искусственного интеллекта является благом для многих областей. Алгоритмы вездесущи и упрощают нашу цифровую жизнь, например, рекомендуя нам информационный контент. Однако каждый прогресс приносит свою долю отклонений, как показывают эти примеры взлома.

С помощью дэдботов ученые-компьютерщики вступают на опасную территорию. Смерть — это не «домен», как другие. Человек стал человеком, когда осознал свою смерть. Именно это сознание рискуют нарушить мертвецы, несмотря на все меры предосторожности, которые мы можем принять, инвестируя в сферу загробной жизни, на этот раз искусственный интеллект рискует заставить нас регрессировать.

Уголовная ответственность AI: дело Character.ai

Подросток покончил жизнь самоубийством после того, как пристрастился к своему чат-боту, основанному на генеративном искусственном интеллекте. Это история персонажа.aiприложение, купленное Google, которое позволяет общаться с реальными людьми, живыми или мертвыми, и вымышленными персонажами. Character.ai позволяет вам поговорить с Наполеоном, Аланом Тьюрингом и Робертом Никсоном. Компании грозит иск, возбужденный матерью подростка. Она обвиняет компанию в том, что она продает продукт, который небезопасен для детей, и не предупреждает родителей.

К сожалению, этот случай не первый в своем роде. В июне 2023 года Бельгийский отец также покончил жизнь самоубийством после шестинедельного общения с чат-ботом по имени Элиза.

А как насчет юридической ответственности диалогового ИИ в целом и чат-ботов, имитирующих людей, в частности? Они избегают всех правил, даже в Европе. Закон о цифровых услугах (DSA) покрывает ответственность за социальные сети, и эти приложения не являются его частью. Что касается Закон об искусственном интеллектеон не классифицирует чат-боты как системы высокого риска. Поэтому невозможно доказать, что они нарушают какие-либо правила, требующие от них контролировать риск.