Искусственному интеллекту очертили границы

В России появился кодекс этики для «машин»

Около двух десятков крупных российских компаний и организаций вчера подписали первый российский Кодекс этики искусственного интеллекта (ИИ). Документ является добровольным к исполнению и закрепляет базовые требования к применению этой технологии, в том числе по части обеспечения безопасности данных, идентификации ИИ при взаимодействии с людьми и сохранении ответственности при его применении за человеком. «Нравственные» нормы для систем ИИ описаны лишь в общих чертах, в каждом конкретном случае предлагается соотносить жесткость регулирования с рисками применения технологии.

Кодекс искусственного интеллекта устанавливает, что ответственность при применении этой технологии всегда должна оставаться за человеком

Фото: Александр Чиженок, Коммерсантъ

Крупные российские компании вчера подписали первый на отечественном рынке Кодекс этики искусственного интеллекта. Его разработка предусмотрена стратегией развития ИИ до 2030 года и федеральным проектом «Искусственный интеллект». Пока соблюдение норм этого документа носит добровольный характер. Его подписантами стали Сбербанк, «Яндекс», «Ростелеком», МТС, Mail.ru, «Газпром нефть», Infowatch, «Росатом», ЦИАН. Также к кодексу присоединились НИУ ВШЭ, «Сколково», МФТИ, ИТМО, Иннополис, РФПИ и Институт системного программирования им. В. П. Иванникова. Вице-премьер Дмитрий Чернышенко вчера выразил надежду, что до конца года к кодексу присоединятся до ста компаний.

Разработкой свода правил занимались Альянс ИИ (включая Сбербанк, который является «ответственным» за развитие этой технологии) и Аналитический центр при правительстве. Подобные документы есть в 20 странах, у 35 крупных компаний в мире уже есть и собственные кодексы (в России — у Сбербанка, «Яндекса» и ABBY).

В 12-страничном кодексе кратко зафиксированы принципы человекоориентированности систем ИИ, сохранения автономии и свободы воли в обществе, отсутствия дискриминации и непричинения вреда.

В нем рекомендуется применение «риск-ориентированного подхода» — соотнесения жесткости регулирования с потенциальным влиянием создаваемых систем (методику оценки рисков предлагается разработать дополнительно). Ответственность за применение искусственного интеллекта всегда должна оставаться за человеком (в том числе на ИИ не должны перекладываться «полномочия ответственного нравственного выбора»). В документе закреплено, что применение технологий «сильного» (схожего с человеческим) ИИ должно находиться под контролем государства.

Из практических аспектов кодексом обозначено требование об идентификации ИИ при общении с человеком, «когда это затрагивает вопросы прав человека и критических сфер его жизни», а также об обеспечении безопасности в работе с данными. Закрепляется условия конкуренции между компаниями. Она не должна вредить развитию технологии, поэтому рекомендуется обеспечивать доступность данных и совместимость систем там, где это возможно, а также предоставлять достоверную информацию о применяемом ИИ. Для контроля за исполнением кодекса планируется создание специальной комиссии по этике на базе Альянса ИИ.

Отметим, нормативное регулирование в этой области по-прежнему остается одной из наиболее обсуждаемых тем. При этом как китайский опыт активного использования ИИ для распознавания лиц и в инструментах скоринга, так и европейский, когда вводятся жесткие ограничения на использование личных данных, не находят всеобщей поддержки (во втором случае — из-за торможения развития этой технологии). Между тем, как предупреждал в своей недавней статье об эффектах развития ИИ на экономику профессор Массачусетского технологического института Дарон Аджемоглу, отсутствие норм может повлечь риски, которые снизят общее благосостояние, негативно скажутся на ценовой конкуренции и на рынке труда.

В России уровень доверия населения к ИИ выше среднемирового: 48% против 28%. Однако участники рынка признают, что эта статистика является в том числе следствием не слишком глубокого проникновения технологий (то есть отсутствия ситуаций, когда выбор ИИ испугал бы пользователей, а не как такого его использования).

Пока давать ИИ последнее слово в принятии решений российские компании не планируют.

К примеру, беспилотные автомобили «Яндекса», по словам главы компании Елены Буниной, порой не могут сдвинуться с места, так как в их алгоритмах заложено соблюдение всех правил. В Сбербанке, у которого, по словам первого заместителя председателя правления Александра Ведяхина, 99% решений по кредитам физлицам и 30% — юрлицам принимаются автоматически, обещают раскрывать причины отказов и в случае неоднозначных ситуаций проводить повторную оценку уже с привлечением человека.

Татьяна Едовина

Вся лента