Граждан защитят от роботов
Совет федерации отправил искусственный интеллект на доработку
Совет федерации поручил министерствам проработать меры для исключения «дискриминации граждан» искусственным интеллектом (ИИ) и закрепить порядок обжалования его решений. Участники рынка возражают, что ИИ безвреден, рынок саморегулируется через недавно принятый кодекс этики, а ограничивающие законы будут только сдерживать развитие. Они скорее говорят о важности просветительской работы, направленной на то, чтобы люди не боялись ИИ.
Фото: Александр Миридонов, Коммерсантъ
Совет федерации поручил ряду министерств, включая Минцифры, Минздрав и Минэкономики, разработать меры по защите прав граждан при применении систем искусственного интеллекта (ИИ). Это следует из протокола решений по итогам совещания совета по развитию цифровой экономики верхней палаты парламента, который возглавляет первый вице-спикер Совета федерации Андрей Турчак (документ есть у “Ъ”). Совещание прошло в Иннополисе 22 декабря.
Министерствам предстоит разработать и утвердить «дорожную карту» по этому направлению до конца 2022 года.
В нее должны войти инициативы, которые исключат «дискриминацию граждан по различным признакам при использовании алгоритмов ИИ», обеспечат прозрачность работы ИИ и законодательно закрепят порядок обжалования решений ИИ.
Также предлагается обязательно уведомлять граждан о при решении «жизненно важных вопросов» (например, получения госуслуг) о том, что они взаимодействуют с ИИ. В Совете федерации официально не пояснили, что именно имеется в виду под дискриминацией. Но источник “Ъ”, знакомый с ходом подготовки документа, уточнил: «В первую очередь речь идёт о дискриминации по полу, возрасту, личным взглядам или по этническим признакам. Но ее потенциал достаточно широк».
Первые предложения министерств по этой теме необходимо подготовить к концу марта. Идею разработки «дорожной карты» поддержали Минэкономики, Минцифры, информационное управление администрации президента, аналитический центр при правительстве РФ, экспертное и бизнес-сообщество, уверяет собеседник “Ъ”.
В 2021 году правительство обозначило масштабные инициативы по развитию ИИ. Ведомства подготовили планы цифровой трансформации, в каждом из которых так или иначе говорится об использовании этой технологии. МВД анонсировало проект по созданию ИИ-системы, позволяющей находить серийных убийц, а Минсельхоз — о планах применения ИИ для увеличения производства сельхозпродукции. Власти также интересуют перспективы ИИ для анализа психологического состояния россиян по их аккаунтам в соцсетях (см. “Ъ” от 29 ноября 2021 года).
Уже применяющиеся сервисы с элементами ИИ начинают активно влиять на жизнь людей.
Так, в августе 2021 года компания по обработке платежей в видеоиграх Xsolla уволила 150 сотрудников по итогам анализа ИИ (см. “Ъ” 5 августа 2021 года). Широко известным стал случай, когда робот Tele2 позвонил абоненту, но трубку взял бот Олег от банка «Тинькофф». Робот Tele2 предложил боту Олегу подключить новый тариф. Последний согласился без участия владельца смартфона. Рамки и ограничения нужны отрасли, чтобы иметь ориентиры для развития, в противном случае есть риски для бизнеса и общества, отметил зампред комиссии московского отделения Ассоциации юристов России Борис Едидин.
Но участники рынка считают инициативу Совета федерации преждевременной. «На данном уровне развития технологий не стоит говорить, что права людей подвергаются опасности при использовании ИИ. Он не принимает решений за человека, тем более в важных ситуациях»,— поясняют в Ассоциации больших данных.
Отдельные законы не нужны, соглашается источник “Ъ” на рынке ИИ-технологий: отрасль саморегулируется с помощью кодекса этики, подписанного в 2021 году крупными компаниями, а дополнительное регулирование только затормозит развитие новых технологий.
Чтобы разработчиков ИИ правильно понимало общество, а кодекс этики работал, нужна программа просвещения в этой сфере, добавляет гендиректор МТС AI Александр Ханин. Важно, подчеркивает он, чтобы у пользователей не возникало неправильной ассоциации, что ИИ — это имитация человеческого мозга, которая способна выйти из-под контроля.