Интеллект в законе
Россия выбирает свой путь регулирования ИИ
Евросоюз в марте принял первый в мире закон, регулирующий разработку и применение искусственного интеллекта (ИИ). В других странах обсуждается еще ряд подобных инициатив, работают над введением законодательных норм в отношении ИИ и в России. Юристы оценивают европейский закон как очень подробный, но неоднозначный, вместе с тем полагая, что в России принятие закона об ИИ — вопрос времени. По мнению участников рынка, многие связанные с искусственным интеллектом проблемы относятся к этике и могут решаться компаниями самостоятельно, а регулирование должно основываться на реальных рисках, а не на фобиях.
Фото: Александр Миридонов, Коммерсантъ
Первый закон: актуальность и критика
В марте Европарламент поддержал большинством голосов закон об искусственном интеллекте, согласованный с представителями 27 стран Евросоюза в декабре 2023 года. За принятие высказались 523 парламентария, против — 46, воздержались — 49. Так официально был принят первый в мировой практике закон, регулирующий ИИ. Согласно процедурам Евросоюза, в силу он может вступить не раньше следующего года.
Закон делит все основанные на искусственном интеллекте системы по уровню риска — от низкого до неприемлемого. Документ запрещает использовать системы распознавания лиц и другие решения в области удаленной биометрической идентификации в общественных местах в режиме реального времени, а также системы распознавания эмоций. Полиции запрещается пользоваться системами предиктивной аналитики для профилактики нарушений.
Кроме всего прочего, закон вводит ограничения на использование генеративного ИИ (например, нейросети ChatGPT) и «высокорисковых систем, основанных на искусственном интеллекте», к которым относятся беспилотные автомобили и медицинское оборудование.
«Скорее всего, после вступления регулирования в силу оно станет показательным примером для многих других юрисдикций, которые могут взять его за основу создания уже своих правил»,— отмечает ведущий юрисконсульт практики интеллектуальной собственности юридической компании ЭБР Спартак Хулхачиев.
Закон о регулировании ИИ в ЕС был принят своевременно, когда без подобного акта дальнейшее технологическое развитие могло либо затормозиться, либо создавать угрозу нарушения прав человека, говорит глава практики цифрового права и интеллектуальной собственности Seamless Legal Владислав Елтовский. «В этом законе содержится, пожалуй, самое подробное регулирование ИИ на основании риск-ориентированного подхода и вне зависимости от способа применения ИИ»,— отметил он.
Закон ЕС является прорывом в сфере регулирования ИИ, говорит юрист Digital & Analogue Partners Анна Ботвинкина, однако ряд специалистов считают, что он не вполне соответствует требованиям о защите прав человека. «Например, закон не полностью запретил использование технологий распознавания эмоций и дистанционной биометрической идентификации в режиме реального времени в публичных местах»,— уточняет юрист.
На неоднозначность закона указывает и управляющий директор Центра человекоцентричного AI Сбербанка Андрей Незнамов. «Идеи единого горизонтального закона по ИИ присутствуют только в нескольких странах, они резко критикуются технологическим сообществом. В частности, летом прошлого года компании ЕС выступили против закона по ИИ. Аналогичная ситуация произошла в Канаде во время обсуждений схожего акта»,— сказал представитель «Сбера».
Зампред комиссии по правовому обеспечению цифровой экономики московского отделения Ассоциации юристов России Борис Едидин считает, что законодательная практика Евросоюза, как правило, резко ограничивает развитие новых технологий. «В результате в Европе так и не создано собственных конкурентоспособных поисковиков, аудиовизуальных сервисов, мессенджеров. Реализованный законопроект Европарламента, безусловно, интересен, важно регулировать развитие ИИ, создавать правила его использования с учетом степени потенциальной опасности. Какие-то технологии должны развиваться только под контролем общественности или государства — в этой части отдельные элементы инициативы могут быть восприняты российскими законодателями»,— полагает эксперт.
Практика США и Китая
Президент США Джо Байден в октябре прошлого года подписал указ, который в части требований к разработчикам систем ИИ по прозрачности процессов похож на европейский закон. Американские компании теперь должны будут предоставлять правительству данные об итогах тестирования безопасности и другой критически важной информации еще до выхода разработки на рынок. Национальному институту стандартов и технологий было поручено разработать соответствующие критерии, а Министерству торговли США — руководство по маркировке контента, созданного при помощи ИИ. Особое внимание уделено повышению безопасности персональных данных.
В Китае еще летом прошлого года были приняты временные меры, предусматривающие ответственность разработчиков ИИ за весь генерируемый контент.
Правила ввели запрет на контент, который подрывает социалистические ценности или подстрекает к свержению государственного строя. Разработчик в ответе за персональные данные пользователей и соблюдение прав на интеллектуальную собственность. Также, согласно правилам, устанавливается необходимость препятствовать появлению зависимости детей и подростков от использования генеративного ИИ.
Россия ищет свой путь
В России системной нормативной базы для регулирования ИИ еще нет, она только готовится. С прошлого года «Единая Россия» работает над законопроектом, который призван определить ответственность разработчиков и исключить случаи использования искусственного интеллекта в мошеннических целях. «Совместно с министерствами мы планируем провести оценку изменений на рынке труда, связанных с распространением ИИ решений. Сейчас технологии, которые должны были избавить человека от излишнего физического труда, пытаются вместо этого взять на себя решение творческих задач»,— комментировал зампред комитета Госдумы по информационной политике Антон Горелкин в Telegram-канале «Единой России». В сообщении говорилось, что речь о запрете нейросетей не идет.
Правительство в декабре прошлого года внесло в Госдуму законопроект, обязывающий разработчиков ИИ, действующих в экспериментальном правовом режиме, страховать ответственность за возможное причинение вреда жизни, здоровью или имуществу при применении технологии. Существенным нововведением этой инициативы является предлагаемое сокращение сроков рассмотрения заявок на участие в ЭПР. Пока неясно, по какому именно пути регулирования пойдет российское законодательство.
Подготовка законопроекта, его согласование с заинтересованными игроками — госорганами, компаниями-разработчиками — могут занять достаточно много времени, отмечает Борис Едидин. «Так, на принятие инициативы по регулированию смежной технологии — рекомендательных сервисов — ушло более двух лет. Обсуждение регулирования в области больших данных длится более пяти лет. Во многом это связано с поиском баланса, как защитить права и интересы государства и пользователей и не навредить технологическому развитию, не ограничить появление инноваций»,— комментирует эксперт.
Разработчики ждут решения
Партнер и директор по развитию HRlink Дмитрий Махлин уверен, что закон появится в России в течение ближайших полутора-двух лет. «Главное, чтобы он соответствовал требованиям и уровню развития рынка»,— подчеркивает он, добавляя, что, скорее всего, законодатели будут ориентироваться на опыт Евросоюза и Китая. «Инициатива абсолютно своевременная,— считает Дмитрий Махлин.— Искусственный интеллект начинает переходить от стадии зрелой инновации к стадии устойчивой технологии, которая используется массовым потребителем. Если начать регулировать рынок сейчас, можно предотвратить большое количество проблем в будущем».
В пресс-службе «Яндекса» отмечают, что в законодательном регулировании ИИ важно «не опережать действительность» и отвечать на реальные риски, но не на фобии, опираясь на практику применения технологий, которая только начинает накапливаться. «Основные вопросы, которые сейчас предъявляются к ИИ, касаются этики и ответственного использования технологий как разработчиками, так и пользователями. Бизнес осознает это и предлагает меры саморегулирования: инициирует кодексы, декларации и отраслевые стандарты. При этом технологии продолжают развиваться в благоприятной среде, а пользователи получают максимально полезные сервисы»,— считают в компании.
«В России уже создан уникальный и работоспособный механизм взаимодействия государства и рынка через национальный кодекс этики ИИ. В его рамках пилотируются подходы к будущему регулированию. Хороший пример — взаимодействие по вопросу регулирования рекомендательных сервисов, когда положения закона были дополнены этикой работы таких сервисов»,— отметил Андрей Незнамов.
Директор по развитию продуктов Robin компании SL Soft Иван Мельников считает инициативы о регулировании искусственного интеллекта в РФ актуальными. «Применение ИИ сопряжено с большим количеством рисков, начиная с возможных "галлюцинаций", неточностей в ответах, и заканчивая этическими вопросами. Поэтому инициативы регулирования своевременны. Внедрение регуляторных мер должно быть нацелено на сокращение количества фактов недобросовестного применения злоупотреблений использования технологий ИИ. Это позволит повысить доверие граждан и предприятий и упростить использование ИИ в важных отраслях, например в медицине или обработке данных»,— полагает Иван Мельников.