Если такая мера станет законом, то это будет одним из первых значительных шагов в США, направленных на то, чтобы предотвратить появление встроенных предвзятостей в ПО на основе ИИ, дискриминирующих людей на основе расовой, этнической и другой принадлежности. Если таких мер будет больше, то это может привести к буму спроса на цифровых «охотников за головами», которые используют компьютеры, чтобы найти свою «добычу».

Многие компании сейчас предлагают вознаграждение за обнаружение багов в защите, которое может превышать сотни тысяч долларов. Компании готовы платить такие деньги людям, которые помогают им обнаружить ранее не обнаруженные недостатки защиты в их ПО.

Эта сфера настолько разрослась, что подарила миру такие стартапы, как Bugcrowd и HackerOne, помогающие директорам по информационным технологиям и другим руководителям запускать программы для цифровых «охотников за головами» и нанимать этичных хакеров.

Теперь эти стартапы сообщают о повышении интереса к программам, предлагающим вознаграждение этичным хакерам и исследователям за сообщения о незамеченных до сих пор предвзятостях в алгоритмах. Кроме дискриминации при отборе кандидатов на работу, такие предвзятости могут влиять на все: от рассмотрения заявления на кредит до полицейских стратегий.

Их могут намеренно или ненамеренно запрограммировать сами разработчики, либо эти предвзятости могут стать результатом выбора данных, на которых «учится» алгоритм.

Почти все инициативы поиска ошибок в ИИ держали в секрете, а небольшие хакерские группы приглашали работать в таких программах, чтобы компании могли, так сказать, прощупать почву возможностей. «Это очень нервное занятие», – говорит Кэйси Эллис, основатель и голова Bugcrowd.

Вознаграждения от Twitter

Есть одна компания, которая пошла на шаг дальше и провела публичный эксперимент – Twitter. В июле гигант социальных медиа запустил программу поиска предвзятостей алгоритма за вознаграждение, предусматривавшую до $3500 за анализ алгоритма Алекс Райс, директор IТ в HackerOne

В то время как «охотничьи» программы могут быть полезны в поиске предвзятостей, директора IТ убеждены, что они не должны быть первым и главным оружием для решения этой проблемы. Зато нужно сосредоточиться на том, чтобы использовать инструменты и процессы для создания алгоритмов, чтобы компании могли четко объяснять результаты на выходе.

Например, учить алгоритмы использовать контролируемое обучение, предусматривающее внесение четко определенных наборов данных, а не бесконтрольное обучение, в ходе которого алгоритмы сами должны определить структуру данных. Это может снизить риск появления предвзятостей.

Техноруководители в секторах, таких как банковское дело, обращают особое внимание на то, как создаются их алгоритмы и как они работают.

«Поскольку наша индустрия находится под пристальным контролем, это автоматически распространяются и на модели на основе ИИ, – объясняет Сатиш Мутукришнан, директор по данным, информационным и цифровым технологиям в Ally Financial (рыночная капитализация $16,8 млрд). – Мы начинаем с разработки контролируемых моделей дел, связанных с работой с клиентами».

Райс из HackerOne согласен, что многое можно и нужно делать для устранения предубеждений в моделях на основе ИИ еще на стадии их разработки. Но он все равно считает, что директорам компаний следует рассматривать «охотничьи» программы за вознаграждение как дополнительный инструмент в их арсенале.

«Вы хотите найти предвзятости с помощью автоматизации, сканирования, обучения разработчиков, инструментов для управления уязвимыми местами, – говорит Райс. – Но проблема в том, что этого недостаточно».

 

Материалы по теме