По мере того, как использование искусственного интеллекта — безобидного и состязательного — растет с головокружительной скоростью, раскрывается все больше случаев потенциально опасных реакций.

Пиксделюкс Е+

По мере того, как использование искусственного интеллекта — безобидного и состязательного — растет с головокружительной скоростью, раскрывается все больше случаев потенциально опасных реакций. К ним относятся разжигание ненависти, нарушение авторских прав или сексуальный контент.

Появление этого нежелательного поведения усугубляется отсутствием регулирования и недостаточным тестированием моделей ИИ, сообщили исследователи CNBC.

Заставить модели машинного обучения вести себя так, как они должны были себя вести, также непростая задача, сказал Хавьер Рандо, исследователь в области искусственного интеллекта.

«Ответ, после почти 15 лет исследований, таков: нет, мы не знаем, как это сделать, и не похоже, что мы становимся лучше», — сказал Рандо, который специализируется на состязательном машинном обучении.

Тем не менее, есть некоторые способы оценки рисков в ИИ, такие как «красная команда». Эта практика включает в себя людей, тестирующих и исследующих системы искусственного интеллекта, чтобы обнаружить и идентифицировать любой потенциальный вред — modus operandi, распространенный в кругах кибербезопасности.

Шейн Лонгпре, исследователь в области искусственного интеллекта и политики и руководитель инициативы Data Provenance Initiative, отметил, что в настоящее время в красных командах не хватает людей.

В то время как стартапы в области искусственного интеллекта в настоящее время используют собственных оценщиков или контрактные вторые стороны для тестирования своих моделей, открытие тестирования для третьих сторон, таких как обычные пользователи, журналисты, исследователи и этичные хакеры, приведет к более надежной оценке, говорится в документе, опубликованном Longpre и исследователями.

«Некоторые из недостатков в системах, которые люди находили, требовали от юристов, врачей для фактической проверки, настоящих ученых, которые являются специализированными экспертами в предметной области, чтобы выяснить, было ли это недостатком или нет, потому что обычный человек, вероятно, не мог или не имел бы достаточного опыта», — сказал Лонгпре.

Принятие стандартизированных отчетов о «недостатках ИИ», стимулы и способы распространения информации об этих «недостатках» в системах ИИ — вот некоторые из рекомендаций, изложенных в документе.

Поскольку эта практика была успешно внедрена в других секторах, таких как безопасность программного обеспечения, «нам это нужно в ИИ сейчас», — добавил Лонгпре.

По словам Рандо, объединение этой ориентированной на пользователя практики с управлением, политикой и другими инструментами обеспечит лучшее понимание рисков, связанных с инструментами и пользователями ИИ.

«Мы идем по пути развития искусственного интеллекта, который чрезвычайно вреден для многих людей», — говорит Карен Хао

Больше не полет на Луну

Одним из таких подходов является проект Moonshot, сочетающий технические решения с политическими механизмами. Запущенный сингапурским Управлением по развитию инфокоммуникационных средств массовой информации, проект Moonshot представляет собой большой набор инструментов для оценки языковых моделей, разработанный совместно с такими игроками отрасли, как IBM и бостонская компания DataRobot.

Набор инструментов включает в себя бенчмаркинг, red teaming и базовые показатели тестирования. Существует также механизм оценки, который позволяет стартапам в области искусственного интеллекта гарантировать, что их моделям можно доверять и они не причинят вреда пользователям, сказал CNBC Ануп Кумар, руководитель отдела клиентской инженерии по данным и искусственному интеллекту в IBM Asia Pacific.

«Оценка — это непрерывный процесс, который должен проводиться как до, так и после развертывания моделей», — сказал Кумар, отметив, что реакция на инструментарий была неоднозначной.

«Многие стартапы использовали это в качестве платформы, потому что это был открытый исходный код, и они начали использовать это. Но я думаю, вы знаете, мы можем сделать гораздо больше».

В дальнейшем Project Moonshot нацелен на то, чтобы включить кастомизацию для конкретных отраслевых сценариев использования и обеспечить многоязычное и мультикультурное объединение красных команд.

Высочайшие стандарты

Пьер Алькье, профессор статистики в бизнес-школе ESSEC в Азиатско-Тихоокеанском регионе, сказал, что технологические компании в настоящее время спешат выпустить свои новейшие модели искусственного интеллекта без надлежащего тестирования.

«Когда фармацевтическая компания разрабатывает новый препарат, им нужны месяцы испытаний и очень серьезные доказательства того, что он полезен и не вреден, прежде чем они получат одобрение правительства», — отметил он, добавив, что аналогичный процесс происходит и в авиационном секторе.

Такие правила отсутствуют в ИИ, отметил Алкье, добавив, что модели ИИ должны соответствовать строгому набору условий, прежде чем они будут одобрены. По его словам, переход от широких инструментов ИИ к разработке инструментов, предназначенных для более конкретных задач, облегчит прогнозирование и контроль их неправомерного использования.

«LLM могут делать слишком многое, но они не нацелены на задачи, которые достаточно специфичны», — сказал он. Как следствие, «количество возможных злоупотребленийслишком велик, чтобы разработчики могли предвидеть их все».

Такие широкие модели затрудняют определение того, что считается безопасным и надежным, согласно исследованию, в котором участвовал Рандо.

Поэтому технологическим компаниям следует избегать преувеличений, утверждая, что «их защита лучше, чем они есть на самом деле», — сказал Рандо.