Кодекс этических принципов для роботов в 2021 году представил и Китай. В нём особое внимание уделяется контролю человека над робототехникой. В документе говорится, что роботы должны повышать благосостояние людей, их нельзя использовать в криминале. Кроме того, подчеркивается, что роботы не должны вмешиваться в частную жизнь.

Матрица из будущего

Все принятые этические кодексы исходят из того, что ИИ способен нести угрозы человеку. Именно для их предотвращения эти документы и разрабатывались.

Философы и футурологи на протяжении не одного десятка лет ставили эту проблему в центре своих хитросплетённых теорий. Угрозы от роботов рисовались с каждым десятилетием всё более и более фантастическими. Роботов часто изображали враждебными захватчиками, способными поработить мир.

Сегодня такие сценарии уже не кажутся совсем нереальными. Поэтому учёные и разработчики сфокусировались на проработке конкретных сценариев возможных угроз от искусственного интеллекта и на том, как их можно избежать. Например, не повысят ли беспилотные автомобили в будущем число аварий? Или не превратятся ли дипфейки в оружие массового поражения в руках мошенников?

Гендиректор IT-компании «Наносемантика» Станислав Ашманов выделяет три угрозы, связанные с развитием искусственного интеллекта.

«Первая — это нарушение приватности, вызванное автоматическим анализом большого объёма данных — транзакций, переписки, распознавания лиц по видео и т. д. Вторая угроза — замещение роботами людей на рабочих местах. В первую очередь, это касается представителей массовых профессий — кассиров, сотрудников колл-центров, водителей. Этот процесс уже начался. И наконец, третья угроза , которая беспокоит людей, — появление разумных машин, способных поработить человечество. Такие машины получат контроль над системами вооружения, что приведёт к уничтожению человечества как вида. Мне кажется это больше фантазией, хотя сегодня мы уже видим, как искусственный интеллект управляет некоторыми видами оружия — например, беспилотниками, уничтожающими цели на земле», — рассказал эксперт «Секрету фирмы».

По его словам, также негативные сценарии могут быть связаны с развитием нейросетей .

Иногда нейросети уже сегодня выходят из-под контроля. Так, голосовой помощник Олег из Тинькофф-банка в 2019 году предложил клиентке отрезать пальцы. Женщина написала чат-боту, что система входа по отпечатку пальца в приложение не работает, — и получила такой неожиданный ответ.

«Также нейросети могут ошибаться при принятии решения о выдаче кредитов. Например, на заявку о получении кредита в одном из банков за 60 секунд можно получить необоснованный автоматический отказ, с объяснением: “Искусственный интеллект принял такое решение на основе больших данных”», — отметил Ашманов.

Кроме того, эксперт обратил внимание и на угрозы от дипфейков . «Голос человека и изображение и раньше можно было синтезировать, но это было дорого и долго, делалось под заказ на голливудских студиях. Сейчас же эта технология стала массовой, дешёвой, доступной. Это опасно, так как мошенники могут начать использовать её, создавая фейковые ролики с участием человека. Они могут оказывать давление на жертву, пытаться с помощью них обойти защиту банков, обманывать людей с помощью социальной инженерии», — заключил эксперт.

Большую угрозу несёт и возможность взлома робота , считает эксперт по информационной безопасности компании Cisco Systems Алексей Лукацкий.

«Против систем искусственного интеллекта хакеры используют не такие методы атак, как против серверов компаний. Последние можно просто положить. Серверы, связанные с ИИ, тоже можно, но с ними часто делают и более нестандартные вещи. Например, совершают атаки на модели обучения. Это приводит к тому, что искусственный интеллект начинает принимать неверные решения на тех же самых исходных данных, что и раньше. Можно, наоборот, подменять данные или подмешивать в них фальшивые — искусственный интеллект будет тогда делать некорректные выводы», — объяснил эксперт.

Он добавил, что также хакеры способны совершать атаку на саму инфраструктуру, обеспечивающую работу ИИ. Это можно делать, например, с помощью шифровальщиков. Ещё одна мишень для хакеров — автопилоты, например, беспилотных машин. Если для них перекрывать какие-то элементы знаков, то они будут принимать неверные решения.

В будущем проблема хакерских атак на искусственный интеллект войдёт в тройку-пятёрку самых серьёзных проблем компьютерного мира, утверждает Лукацкий.