Мера гуманитарной самозащиты
В ВШЭ предлагают оценивать этические аспекты цифровизации
Цифровизация требует комплексного социально-гуманитарного анализа в сфере нормотворчества, указывают эксперты ВШЭ в докладе к Ясинской (Апрельской) международной научной конференции университета. По аналогии с системой оценки регулирующего воздействия (ОРВ) ученые предлагают разработать и внедрить новый механизм — оценку гуманитарного воздействия (ОГВ) мер цифровой трансформации. Необходимость анализа сопутствующих цифровизации этических проблем вызвана двойственным характером технологий: с одной стороны, они дают людям новые возможности, с другой — риски, порой вызывающие реальное недовольство граждан «цифровой» повесткой властей.
К апрельской конференции Высшей школы экономики группа авторов под руководством замглавы Института права цифровой среды Михаила Якушева представила доклад «Приоритетные направления правового регулирования цифровой трансформации в РФ. Внедрение в нормотворчество системы оценки гуманитарного воздействия (2022–2025 годы)». Инновации меняют не только экономические отношения, способы производства и формы труда, но и ожидаемо порождают «множество новых проблем, лежащих в области этики и гуманитарного знания», констатируют авторы. Отметим, наличие проблем с восприятием цифровизации людьми отмечали и другие исследователи — так, недавно эксперты Центра подготовки руководителей и команд цифровой трансформации ВШГУ РАНХиГС зафиксировали недовольство и раздражение граждан «цифровой стеной», которой власти отгораживаются от них при развитии системы госуслуг (см. “Ъ” от 14 апреля).
Для оценки гуманитарных последствий принимаемых «цифровых» документов ученые предлагают по аналогии с действующим в РФ с 2010 года механизмом оценки регулирующего воздействия внедрить оценку гуманитарного воздействия нормативных документов.
Пока такая система в других странах не внедрена, но в некоторых европейских — уже обсуждается. «В какой-то степени это связано с местными традициями нормотворчества, где есть иные механизмы, помимо принятой в России ОРВ и предлагаемой ОГВ»,— отметил Михаил Якушев. ОГВ, по замыслу ученых, позволит корректировать нормативные акты (в том числе в отношениях, прямо не затрагиваемых ими) с точки зрения прав и свобод человека, представлений о справедливости, свободе, морали и т. д.
«Оценка производится с субъективной точки зрения на базисе этических норм, принятых в обществе, и их толкования в контексте проекта нормативно-правового акта. ОГВ не преследует цель формулировки итогового экспертного заключения, протокола, одобряющего или критикующего представленный на оценку текст проекта нормативно-правового акта. Цель ОГВ — предвосхитить проблемы правового и неправового характера, указать авторам на возможные регуляторные последствия, дать научное обоснование этих последствий и представить общественное мнение»,— говорится в докладе. Вопрос о том, как могла бы быть организована такая оценка, открыт — по словам Михаила Якушева, возможно и участие в процессе группы авторитетных специалистов в сфере философских и этических проблем, и использование методов социологических опросов. В ВШЭ рассчитывают предложить методологию ОГВ до конца года.
Авторы доклада видят перспективы внедрения ОГВ в России вполне реальными.
«В предварительном плане на эту тему уже были обсуждения в палатах Федерального собрания и в парламентских партиях. Есть и интерес, и понимание необходимости ОГВ, особенно во всех инициативах, связанных с регулированием использования искусственного интеллекта. Степень недоверия к таким технологиям пока еще очень высокая, доверие нужно обязательно обеспечивать — и ОГВ представляется правильным инструментом»,— говорит господин Якушев.
Одной из причин возникновения этических проблем при цифровизации в ВШЭ называют низкую вовлеченность общества в принятие решений в сфере научно-технологического развития, напрямую затрагивающих и влияющих на права, свободы и образ жизни. При этом для экспертов и представителей госвласти мнение граждан в вопросах регулирования должно носить преимущественно информативный характер: суждения людей могут быть противоречивы с точки зрения этики, отражать стереотипы и предрассудки.
Отметим, что вопросы этики в применении цифровых технологий регулярно обсуждаются в различных экспертных сообществах. Пока же практической реализацией этих идей можно считать подписание в октябре прошлого года первого российского Кодекса этики искусственного интеллекта. Документ является добровольным к исполнению (см. подробнее “Ъ” от 27 октября 2021 года).