В условиях очень быстрого распространения ChatGPT и других чат-ботов с искусственным интеллектом (ИИ) появляется все больше вопросов о возможностях мошенничества с их помощью, нарушения авторских прав и других проступков и даже преступлений. Разные страны по-разному подходят к регулированию этой сферы. В США, ЕС, Китае и некоторых других странах пока разрабатывают нормы регулирования генеративного ИИ. В Италии ChatGPT запретили вовсе, а в Индии, наоборот, никак не собираются регулировать ИИ-системы.
Фото: Игорь Иванко, Коммерсантъ
ChatGPT — продвинутый чат-бот с искусственным интеллектом от компании OpenAI, которого сразу назвали «убийцей Google»,— был запущен в ноябре прошлого года. Полгода хватило, чтобы в мире началось нечто сродни «гонке вооружений» в разгар Холодной войны. Об интеграции чат-ботов в свои продукты сообщают все новые и новые компании. Новости о появлении собственных чат-ботов, основанных на технологиях генеративного ИИ (к примеру, Bard от той же Google или версий от китайских компаний Baidu и Alibaba), или начале разработки таковых становятся регулярными. Даже притом, что пока соперники ChatGPT во многом уступают ему.
Одновременно с этим появляется множество вопросов к этой технологии. Они касаются соблюдения авторских прав, опасности плагиата и мошенничества. Появляются и убежденные противники этой гонки.
Недавно некоммерческая общественная организация Future of Life опубликовала открытое письмо с призывом «сделать паузу по меньшей мере на шесть месяцев» во внедрении новых продвинутых ИИ-систем такого рода. По мнению авторов письма, среди которых сооснователь Apple Стив Возняк и основатель Tesla Илон Маск, прежде чем спешить с внедрением таких систем, необходимо разработать протоколы безопасности для таких систем и контроль за ними.
С этим утверждением согласны власти многих стран, занявшиеся разработкой правил, регулирующих работу чат-ботов.
Чат-бот социалистический
На текущей неделе Управление по вопросам киберпространства Китая представило свой проект правил для чат-ботов. Отмечая, что Китай поддерживает инновации и популяризацию технологий, правила настаивают на том, чтобы создаваемый чат-ботами контент соответствовал «ключевым социалистическим ценностям», а также законам о защите данных и личной информации. Контент этот не должен противоречить нормам общественной морали или «содержать призывы к подрыву государственной власти, свержению социалистической системы, подстрекательству к разделению страны, подрыву национального единства».
Китайские чат-боты должны будут проходить проверку безопасности со стороны госорганов, а создаваемый ими контент обязательно должен маркироваться. Чат-боты должны будут верифицировать пользователей. Кроме того, их разработчики должны будут нести полную ответственность за тот контент, который создают их ИИ, а также за обращение с данными пользователей. В числе прочего такой контент должен соответствовать фактам, а также не должен дискриминировать кого-либо по расовой принадлежности, убеждениям и т. д.
Многие эксперты считают, что c принятием этих правил на чат-боты распространится жесткая китайская цензура. «Не нужно питать иллюзий. Партия будет использовать "Принципы работы генеративного ИИ" для тех же целей цензуры, слежки и манипуляции информацией, которые она пыталась оправдать в случае с другими законами и правилами»,— считает руководитель азиатской программы правозащитной организации Article 19 Майкл Кастер.
По его мнению, эти правила будут использоваться для того, чтобы не дать китайским пользователям получить доступ к какой-либо запрещенной информации, например о том, как пользоваться VPN.
По мнению аналитика компании 86Research Чарли Чая, эти правила, скорее всего, будут способствовать распространению местных чат-ботов и мешать проникновению на китайский рынок их зарубежных аналогов, так как китайские игроки скорее будут готовы разрабатывать такие системы в соответствии с действующими в стране нормами.
Чат-бот капиталистический
Власти США также рассматривают возможность разработки регулирующих норм для новейших технологий искусственного интеллекта (ИИ), таких как ChatGPT. Об этом на текущей неделе сообщила The Wall Street Journal. По ее данным, Министерство торговли США начало консультации с экспертами о потенциальных рисках использования таких инструментов, их сертификации и т. д. Оно хочет понять, существуют ли такие меры регулирования, которые могут гарантировать, что используемые «ИИ-системы соответствуют законам и этике, эффективны, безопасны и в целом заслуживают доверия».
После консультаций и сбора мнений, которые продлятся 60 дней, Министерство представит выводы в администрацию президента США Джозефа Байдена, которая может инициировать разработку соответствующего законопроекта.
В конце марта Министерство по делам науки, инноваций и технологий Великобритании опубликовало свои предложения по регулированию подобных ИИ-систем. В министерстве отметили, что «регулирование ИИ направлено на выстраивание общественного доверия к новейшим технологиям». В течение года местные регуляторы собираются создать практическое руководство для разработки законодательства в это сфере.
При разработке правил британские власти собираются руководствоваться пятью принципами: безопасность; прозрачность и доступность; честность и справедливость; подотчетность и ответственность; возможность судебного оспаривания и исправления ошибок.
В числе прочего это означает, что разработчики ИИ-систем должны в случае необходимости доступно разъяснять, как работают их системы, какие могут быть риски и как они учитываются, а в случае нарушений нести ответственность за их последствия.
Собственные правила в этой сфере разрабатывает и ЕС — европейские законодатели известны очень тщательным и довольно жестким регулированием самых разных технологических сфер. Европейский закон об ИИ, проект которого уже подготовлен, предусматривает регулирование всех видов ИИ и всех секторов, в которых он может применяться, кроме военного. По нему все виды ИИ должны быть классифицированы по уровню риска от низкого до неприемлемого, для разных уровней риска, видов ИИ и сфер применения будут действовать разные требования. Кроме того, в этой сфере будут действовать и другие европейские законы, такие как закон о защите персональных данных ЕС.
Закон о регулировании ИИ разрабатывается и в России.
Чат-боты скованные и освобожденные
Пока большинство стран только разрабатывают законы в этой сфере, Италия предприняла более радикальный шаг. В начале апреля она временно запретила использование ChatGPT. Итальянское управление по защите персональных данных обосновало свое решение тем, что чат-бот нарушает законодательство о персональных данных. В первую очередь это связано со сбоем в работе ChatGPT, который привел к утечке личных данных и диалогов пользователей. Теперь OpenAI должна сообщить итальянским властям, как она собирается решать проблемы с конфиденциальностью данных.
Как отмечают некоторые эксперты, такое решение Италии может стать примером для более жесткого регулирования ChatGPT в ЕС в целом. У этого есть причина: чат-боты развиваются быстрее, чем создаются регуляторные правила в этой сфере.
В Индии же власти уже заявили, что не собираются, по крайней мере сейчас, регулировать чат-боты. В начале апреля Министерство электроники и информационных технологий Индии объявило, что оно «не рассматривает возможность принятия закона или правил для регулирования роста ИИ в стране».
По мнению министерства, ИИ — это фактор, способствующий развитию цифровой экономики, хотя определенные этические опасения по поводу предвзятости и непрозрачности таких ИИ-систем есть. Это не значит, что власти вовсе устранятся от какого бы то ни было контроля. Но в индийском варианте нормы будут носить скорее рекомендательный характер.
«Вызовы, которые ставит генеративный ИИ, как с точки зрения возможных злоупотреблений, так и с точки зрения коммерческого использования, во многом возникли относительно недавно, и пока не очевидно, какая политика в их отношении окажется наилучшей»,— считает Алекс Энглер, исследователь из Брукингского института, занимающийся вопросами госуправления в отношении технологических инноваций. По его мнению, правила в этой сфере могут включать обязательства обмена информацией для снижения рисков коммерциализации, а также требования по управлению рисками, которые должны смягчить последствия возможных злоупотреблений. «Ни одна из этих мер не панацея, но это разумные требования для таких компаний, которые могут улучшить их социальное воздействие»,— считает господин Энглер.