Искусственный интеллект просят держать в строгости

Эксперты нашли нынешнее регулирование слишком общим

Расширение использования технологий искусственного интеллекта (ИИ) требует ужесточения регулирования на государственном уровне, следует из данных экспертного опроса Специального комитета по искусственному интеллекту Совета Европы. В России, согласно данным другого опроса, по отношению к ИИ нет настороженности — лишь треть респондентов опасаются потери работы из-за внедрения этой технологии, а две трети хотели бы использовать ее для того, чтобы работать меньше при сохранении уровня своего дохода.

Искусственный интеллект может помочь в борьбе с дискриминацией

Фото: Анатолий Жданов, Коммерсантъ

Специальный комитет по искусственному интеллекту Совета Европы (CAHAI) представил отчет по итогам опроса представителей власти, бизнеса и научных организаций о рисках, связанных с использованием ИИ (всего было опрошено 260 экспертов из разных стран). Предполагается, что результаты опроса будут использоваться при разработке принципов нормативного регулирования этой сферы — «основанного на стандартах Совета Европы в области прав человека, демократии и верховенства закона».

Выяснилось, что больше всего возможностей для применения ИИ эксперты видят в здравоохранении (диагностика), защите окружающей среды (прогнозирование изменений климата), образовании (расширение доступа к нему) и финансовой сфере (борьба с мошенничеством). Помимо этого ИИ может помочь в борьбе с дискриминацией за счет обеспечения равного доступа к тем или иным благам или услугам.

Наиболее же выраженные риски использование ИИ может иметь в сфере правосудия и правоприменения (наиболее опасными практиками эксперты сочли скоринг для доступа к публичным услугам, анализ эмоциональной вовлеченности сотрудников и распознавание лиц).

Интересно, что большинство респондентов выступили за более жесткое регулирование ИИ со стороны государств. По их оценке, текущие рекомендации и этические принципы описывают базовые положения, но не являются эффективными на практике. В частности, это касается «бремени доказывания» безопасности алгоритма (его должна нести организация, внедряющая ИИ), введения права на пересмотр решения алгоритма человеком, также программный код должен быть доступен для внешнего аудита. Половина опрошенных высказалась против использования распознавания лиц в общественных местах.

«Респонденты высказались за явный запрет только тех систем ИИ, которые доказанно нарушили права и свободы человека. В остальных случаях предлагается вводить правовые рамки использования систем ИИ. Где-то они могут быть более жесткими, а где-то — сочетаться с инструментами саморегулирования»,— говорит председатель специальной межгосударственной рабочей группы (CAHAI-COG), управляющий директор Центра регулирования AI Сбербанка Андрей Незнамов.

Отметим, что в России отношение к технологиям ИИ скорее положительное — это следует из данных опроса ВЦИОМа и АНО «Национальные приоритеты».

ИИ доверяют 48% россиян (42% не доверяют, 10% затруднились с ответом). Только треть опрошенных опасаются потери работы в связи с развитием новых технологий. Две трети опрошенных (и 84% в возрасте 18–24 лет) готовы использовать ИИ для того, чтобы меньше работать при сохранении уровня дохода, а половина готова пройти обучение в этой сфере. В то же время доверить ИИ принятие решений готовы немногие: в медицине это готовы сделать лишь 3%, в образовании — 5%. Примечательно, что 44% при этом заявили, что использование ИИ позволит принимать более справедливые решения в госуправлении.

Татьяна Едовина

Вся лента