Прогнозируется, что к 2022 году персональный компьютер или смартфон будет знать об эмоциональном состоянии человека больше, чем члены его семьи. Об этом 31 декабря пишет индийское информационное агентство The Hindu.

Исследователи из Калифорнийского университета в Сан-Диего разработали инструмент искусственного интеллекта (ИИ) для прогнозирования уровня чувства одиночества у пожилых людей с точностью 94%.

Инструмент использовал технологию обработки естественного языка (NLP), разработанную IBM для обработки больших объемов неструктурированной естественной речи и текстовых данных. Он проанализировал такие факторы, как познавательная способность, подвижность, сон и физическая активность. Этот инструмент является примером того, как ИИ можно использовать в электронных устройствах для обнаружения психических заболеваний.

Emotion AI — это разновидность ИИ, который измеряет, моделирует и реагирует на человеческие эмоции. Первые научные изыскания в этом направлении обнаруживаются к книге профессора Массачусетского технологического института (MIT) Розалинд Пикар «Аффективные вычисления», опубликованной в 1997 году, в которой утверждается, что исследование эмоций может быть улучшено за счет новых технологий.

Согласно исследованию бизнес-школы MIT Sloan, компьютеры хорошо справляются с анализом больших объемов данных, они могут «слышать» интонации голоса и распознавать, когда эти интонации сигнализируют о стрессе или гневе. По его словам, машины могут анализировать изображения и улавливать тонкости эмоциональных выражений на лицах людей, которые порой не может распознать даже человек.

На практике Emotion AI часто используется в виртуальных личных помощниках, таких как Amazon Alexa и Apple Siri. Amazon включила ИИ в свой фитнес-трекер Amazon Halo, который анализирует голос потребителя, чтобы определить его настроение и эмоциональное состояние.

В октябре 2020 года производитель ноутбуков Hewlett Packard представил на рынке гарнитуру виртуальной реальности (VR), которая использует датчики для измерения физиологических реакций, таких как выражение лица, движение глаз и сердцебиение для того, чтобы подстроить ход компьютерной игры под пользователя.

Преимущества технологии распознавания эмоций особенно очевидны в области медицины, где отношения между врачом и пациентом, а также постановка диагноза и назначение курса лечения все еще субъективны.

В медицине роботы-медсестры следят за самочувствием пациента, а не только напоминают ему о приеме лекарств. Программное обеспечение, управляемое ИИ, может помочь практикующим врачам диагностировать депрессию и деменцию с помощью голосового анализа.

В корпоративном пространстве рабочее место с использованием чат-ботов и роботов обеспечивает беспристрастную и быструю помощь клиентам. Опрос, проведенный технологической компанией Oracle в октябре 2020 года, показал, что более 90% респондентов в Индии и Китае были более открыты для разговоров с роботами о своем психологическом состоянии, чем с руководителями.

Использование ИИ для отслеживания человеческих эмоций подвергается критике, причем наибольшую озабоченность вызывает предвзятость.

Например, согласно исследованию под названием «Расовое влияние на автоматизированное восприятие эмоций», написанному профессором Университета Мэриленда, технология эмоционального анализа приписывает больше отрицательных эмоций лицам чернокожих мужчин, чем лицам белых.

Также ИИ сложен, но не настолько, чтобы понимать культурные различия в выражении и чтении эмоций, что затрудняет точные выводы. Например, в Германии улыбка может означать одно, а в Японии — другое. Неправильное понимание этих значений может привести к принятию неправильных решений, особенно в бизнесе.

Пользователи должны знать о потенциальных ошибках ИИ, которые могут повлиять на точность результатов.

По данным исследовательской компании Mordor Intelligence, в 2019 году рынок Emotion AI оценивается в 17,19 миллиарда долларов, а к 2025 году он достигнет 45,48 миллиарда долларов.