Когда изобретатели задумали создать первые автомобили, их цель была проста – построить безлошадные повозки. Мало внимания уделялось безопасности пассажиров и пешеходов, необходимости расширения и расширения дорог или последствиям чрезмерного загрязнения и владения частными автомобилями.

Сегодня мир сталкивается с технологией, которая может стать такой же революционной, как двигатель внутреннего сгорания: искусственный интеллект.

Разница на этот раз в том, что мы можем обеспечить ответственную разработку ИИ с полным учетом вероятных экономических, социальных и экологических последствий.

Тем не менее, исследования показывают, что существует разрыв между текущей повесткой дня в области ИИ, которая прежде всего стремится к технологическому прогрессу, и потребностями отдельных людей, обществ и нашей планеты. Когда разработчики ИИ поспешили раздвинуть технологические границы, не взвесив должным образом этические и социальные проблемы, это часто приводило к тому, что приложения ИИ усиливали дискриминацию и предвзятость, а также публиковали ложную информацию.

Однако мы все еще находимся на заре ИИ и можем влиять на то, как эта технология может быть создана. Этим летом Закон ЕС об искусственном интеллекте проходит через Европейский парламент, а Великобритания готовится провести в начале ноября Саммит по безопасности искусственного интеллекта, и, похоже, мы подошли к перепутью в области искусственного интеллекта. Теперь у нас есть шанс установить глобальные стандарты, которые гарантируют, что мы сможем реализовать преимущества ИИ, одновременно снижая риски и взяв под контроль то, как ИИ повлияет на нашу повседневную жизнь.

Итак, как мы можем решить социальные проблемы, связанные с ИИ, и обеспечить, чтобы он создавался ответственно?

Переосмыслите, как измеряется успех ИИ

Нам нужно начать с переосмысления того, что на самом деле означает успешный ИИ. Его следует измерять не по технологической сложности, которую он достигает, а по социальным и экологическим выгодам, которые он создает, руководствуясь этическими принципами ИИ.

Однако, учитывая этику, основанную на человеческих суждениях и субъективности, измерение успеха ИИ, который является «этичным», по своей сути является сложной задачей.

Вот почему установление принципов ответственного ИИ, подобных тем, которые мы изложили в Nokia, обеспечивает отличную отправную точку для разработки этических показателей и ключевых показателей эффективности ИИ. В совокупности нам следует изменить наше мышление и сосредоточиться в первую очередь на положительных преимуществах, которые может открыть ИИ, таких как человеческое благополучие или декарбонизация.

Внедрение глобальных стандартов искусственного интеллекта

В Nokia мы считаем, что глобальные стандарты жизненно важны, если мы хотим использовать ИИ человекоориентированным, заслуживающим доверия и этичным образом. Глобальные механизмы необходимы для оценки соответствия и оказания помощи поставщикам и пользователям систем ИИ в соблюдении нормативных требований.

Согласованная на глобальном уровне нормативно-правовая база стимулирует инновации и приносит преимущества ИИ всем и повсюду. И наоборот, фрагментированный подход будет иметь тормозящий эффект.

Убедитесь, что искусственный интеллект изначально этичен

С появлением инструментов «без кода/низкого кода», которые обеспечивают доступ к ИИ для непрофессиональных разработчиков, все большее число предприятий и людей имеют возможность использовать ИИ без четкого понимания рисков или возможности их смягчить. . Даже для профессиональных разработчиков слишком часто ответственное использование ИИ остается второстепенным.

Вот почему ключевым моментом является подход «этический по замыслу», когда рассмотрение этики ИИ учитывается на протяжении всего жизненного цикла разработки конкретной технологии ИИ.

Например, в Nokia Bell Labs, промышленной исследовательской лаборатории Nokia, мы изучаем использование инструментов, которые побуждают разработчиков ИИ думать об этических аспектах на каждом этапе процесса, чтобы они были включены в процесс принятия решений и их реализации с самого начала. .

Содействие разнообразию в сфере ИИ

Наконец, сфера ИИ сталкивается с кризисом разнообразия. Если эту проблему не решить, бессознательные предубеждения создателей и пользователей ИИ будут продолжать внедряться в получаемые технологии, исключая целые слои населения мира.

Например, наше недавнее исследование показало, что наборы данных ИИ в настоящее время демонстрируют непропорционально большое внимание западному населению. Это означает, что результаты ИИ могут быть предвзятыми и/или исключать маргинализированные группы населения из-за отсутствия достаточных социальных, эмоциональных и культурных знаний. Сбор данных от недостаточно представленных групп населения является ключом к получению инклюзивного мировоззрения.

Работодатели должны уделять первоочередное внимание диверсификации своего кадрового резерва с точки зрения этнической принадлежности, пола, трудоспособности и т. д., чтобы те, кто работает в сфере ИИ, лучше представляли общество.

В конечном итоге нам необходимо изменить способ измерения ценности любой новой технологии. Нам нужно выйти за рамки просто технических возможностей. Конечно, традиционные показатели производительности, емкости, эффективности, надежности и безопасности имеют значение, но не менее важны и экологические, социальные и управленческие показатели.

ИИ обладает потенциалом для огромного блага и может открыть новые решения глобальных проблем, но только в том случае, если он будет разрабатываться ответственно и на благо всех.

Главное изображение предоставлено Nokia Bell Labs.