Эксперты EPIC представили «12 законов робототехники»

Перегляди: 103

Группа правозащитников из Центра электронной конфиденциальности (Electronic Privacy Information Center; EPIC) составила свод правил, призванный защитить человечество от угрозы бесконтрольного искусственного интеллекта

105329275-6ED5-BL-AmazonV2-071318-2

Интересно, что обойтись тремя законами робототехники, как у Айзека Азимова, у экспертов не вышло. Список из двенадцати правил был обнародован на встрече коалиции Public Voice, созданной в 1996 году для содействия участию общества в принятии решений о будущем интернета.

В предисловии авторы отмечают, что по мере распространения искусственного интеллекта  плоды его деятельности оказывают все большее влияние на жизнь человека — от выдачи кредита до получения работы или судебного приговора. Поэтому в данной сфере очень важно очертить руководящие принципы, которые должны обеспечить защиту прав человека, не допустить дискриминационных и неэтических решений со стороны автономных систем и минимизировать риск выхода ИИ из-под контроля.

«Нужно убедиться в том, что компании уделяют достаточно внимания разработке, внедрению и поддержке этических норм, которыми руководствуются системы ИИ», — заявили в EPIC.

Итак, «12 принципов этичного использования ИИ»:

  • Право на справедливость. Разработчики ИИ обязаны удостовериться в том, что машина не имеет предубеждений и не дискриминирует людей по какому-либо признаку.
  • Право на прозрачность. Люди имеют право знать факторы, логику и технологии, которые использует машина для принятия решения.
  • Предварительная оценка и ответственность. Автономная система может быть развернута только после предварительного тестирования, описания ее преимуществ, целей и выполняемых задач; также необходимо заранее обозначить риски. Разработчики несут полную ответственность за те решения, что принимаются ИИ.
  • Обязательная проверка систем ИИ, взаимодействующих с физическими объектами, публичными институтами. Перед тем, как такой искусственный интеллект будет развернут, независимая публичная сторона должна оценить риски и проверить механизмы контроля и безопасности.
  • Решения, принимаемые машиной, должны быть точными, надежными и обоснованными.
  • Разработчики обязаны наделить автономные системы надежной защитой от несанкционированного доступа.
  • ИИ не имеет права профилировать пользователей без их согласия.
  • Государственные ведомства не имеют права при помощи ИИ присваивать гражданам рейтинговые баллы (как это сейчас происходит в Китае).
  • Право на человеческое решение — только люди, а не алгоритмы, могут выносить финальное решение.
  • Требование идентификации — организация, ответственная за ИИ, должна быть известна обществу.
  • Требования качества данных — компании должны указывать источник данных, на основе которых был обучен ИИ, обеспечивать их качество и релевантность.
  • Реализация функции прекращения работы — компания, разработавшая ИИ, должна прекратить деятельность системы, если человеческий контроль над ней более невозможен.

Обнародовав свод правил, активисты предложили правительству США принять его как руководящий. Под открытым письмом подписались свыше 200 экспертов и 50 организаций, включая Федерацию американских ученых и Проект по защите информаторов Government Accountability Project.

Источник itc

Tweet about this on TwitterShare on FacebookShare on Google+

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

*

code