Право против роботов: защита слабого

Необходимо закрепить в законе возможность делать все «по старинке»

Технологии искусственного интеллекта (ИИ) становятся массовыми. Они уже удовлетворяют многим потребностям при генерации текстов и изображений, при организации коммуникаций, при распознавании звука и видео.

Фото: Анатолий Жданов, Коммерсантъ

Фото: Анатолий Жданов, Коммерсантъ

Кроме того, они стали существенно быстрее: картинка или текст генерируются быстро, распознавание идет фактически онлайн. Но, что самое главное, эти технологии стали гораздо дешевле и проще в использовании, а значит, теперь они гораздо более доступны и их «победное шествие» в мире продолжится. Все это сделало крайне актуальной правовую проблематику, в том числе защиты прав граждан при их использовании.

Мнением об этих проблемах, сопутствующих экспоненциальному развитию ИИ, поделился главный научный сотрудник ИГП РАН, профессор МГЮА, управляющий партнер офиса в Санкт-Петербурге юрфирмы Nextons, руководитель проекта «Сохраненная культура» Виктор Наумов.

Робот на связи

Боты на основе ИИ довольно успешно заменяют людей. Мы регулярно сталкиваемся с этим в повседневной жизни: при звонке в солидную организацию, как правило, отвечает не живой человек, а бот. Когда мы обращаемся в поддержку банка или в «Госуслуги», нас встречает не живой оператор, а обученная программа, временами главной целью использования которой видится задача спрятать сотрудника за «спиной» робота.

Тем не менее если не принимать во внимание психологию и желание общаться именно с человеком и если допускать, что эти технологии работают хорошо, то в этом есть логика прогресса.

Однако воздействие ИИ на человечество шире, чем у подавляющего большинства придуманных ранее технологий, и за счет массированной пропаганды всего цифрового они получают быстрый прямой доступ непосредственно к жителям планеты, и никто системно не оценивает, какие общественные изменения нас ожидают из-за этого в ближайшем будущем.

Во время и после звонков ботов многие не догадываются о том, что они могут быть слабее робота в коммуникациях, причем как «честного» робота, который настроен вам что-то продать, так и «нечестного», где есть явный умысел, например, на манипуляцию или мошенничество.

Если человек вступает в коммуникации с ИИ, распознающим речь и интонации, то внушить первому совершить те или иные действия сейчас гораздо проще, чем несколько лет назад. При этом в праве давно существует конструкция «слабая сторона», которая используется для того, чтобы сильнее защитить тех, кто в условиях формального требования равенства имеет меньше ресурсов и возможностей. К сожалению, пока идея его применения к пользователям технологий не является популярной. Также в законе нет требований добросовестно идентифицировать, где используется ИИ и что говорящий взаимодействует не со «сладкоголосым» отзывчивым человеком, а с безразличным роботом, имеющим банальные цели: обычно это увеличение прибыли его владельца, эксплуатирующего, скажем, реакцию пожилого человека на имитацию сочувствия, ожидаемого от живого собеседника.

«Нечестный» робот

Но перечисленное выше не самое тревожащее. Все более опасны сейчас «нечестные» роботы, реализующие технологии дипфейков, целенаправленно имитирующие голос и изображение человека, нередко известного. Чаще всего они используются с целью мошенничества, и расследовать такие преступления крайне сложно как из-за массовости явления, так и объективного отсутствия ресурсов у правоохранительных органов. Также законодательство здесь не поспевает за уровнем общественной опасности, и у нас до сих пор нет норм, защищающих голос человека, минимально охраняется его изображение (нормы есть в Гражданском кодексе и законодательстве о персональных данных) и так называемый цифровой профиль.

На ситуацию влияет также и то, что стало возможно найти много разных и даже бесплатных программных решений генерации дипфейков, качество работы которых улучшилось за эти годы многократно, однако мы игнорируем это обстоятельство и очень мало занимаемся цифровой гигиеной (есть хорошая книга об этом Игоря Ашманова и Натальи Касперской 2022 года). Причин тому много, но отдельно нужно отметить «толерантность» к прогрессу, когда говорить о вреде цифровизации немодно и может казаться даже ретроградным.

«О сколько нам картинок чудных готовит обученья друг»

Прося прощения у памяти гения за переработку цитаты, очевидно, что количество созданного генеративными моделями ИИ уже сейчас огромно. Редкий копирайтер или дизайнер обходит решения ИИ стороной, появились писатели, создающие целые книги с помощью нейросетей, в том числе в России. На слуху были истории с дипломами, написанными с помощью нейросети: один московский студент даже получил тройку за выпускную работу. В Голливуде сценаристы бастовали против новых технологий.

Бороться с технологиями здесь бесполезно, они прочно входят в жизнь информационного общества, но давно требуется определить его отношение к этому явлению, ведь если автор использовал ИИ и не сообщил об этом, выдав за свой труд, это не выглядит добросовестным. В науке и образовании, где есть условие творческой самостоятельности, до сих пор нет границ, в каком объеме не чужой, человеческий (с этим борются как с плагиатом), а сгенерированный ИИ допустим в квалификационных работах. Это предмет внимания системы образования и ВАК РФ.

Автор против генерации и уже предлагал «зоны творчества, свободные от ИИ» (см. «Над цифрою во “лжи”» в “Ъ” от 28 августа 2023 года), в этой сфере немало вопросов в сфере интеллектуальной собственности (см. «Как нарушить интеллектуальные права с помощью ChatGPT?»). Но особо беспокоит, что произойдет с человечеством через одно-два поколения из-за массового контента, созданного ИИ. Наверное, это творчество будет становиться более элитарным и недостижимым для подавляющего большинства, которому будет предлагаться очень дешевая «сладкая цифровая морковка», индивидуально сгенерированная под желания индивидуума. Также быстро девальвируются и трансформируются многие творческие профессии, культурное наследие еще больше станет неинтересным, а затем нас ожидает деградация творческих способностей человеческого вида.

Отказ от роботов

Если мы помимо чувства тревожности и периодически возникающей моды на алармизм заинтересованы в оценке происходящей с нами цифровой трансформации и предложении ответа на изменения, то право может быть одним из инструментов защиты интересов человека и общества. Проблема заключается в том, что развитие и удешевление технологий делают ИИ в ближайшей перспективе неотъемлемой частью нашей жизни и очень многие безоговорочно видят в этом только позитивное. Этому активно способствует то, что технологии ИИ наиболее активно внедряются именно в сферу медиа и развлечений, значимость которой до сих пор многие недооценивают.

Опасность в итоге может заключаться в том, что в мире любовь к новым технологиям скоро может стать более значимой, чем уважение граждан. Скажем, в России об этом почти в одиночестве говорит СПЧ, два с лишним года назад опубликовавший доклад о положении дел с правами и свободами человека в цифровых реалиях.

Содержание ответа на изменения можно формировать последовательно, вводя поэтапно и принимая специальные законы, в том числе об ИИ, определяющие уже не столько меры поддержки для его развития, но устанавливающие гарантии для человека. Недавно в первом чтении был принят законопроект о страховании рисков в сфере ИИ, но его явно недостаточно, и все предметное нормотворчество в стране идет крайне медленно, с постоянной оглядкой на интересы больших проектов и бизнеса и упоминанием этики, которая, к сожалению, не всегда в российском обществе является важным регулятором. Также нет понимания, как на технологический прогресс и использование ИИ влияют современные геополитические процессы и нужно что-либо предпринимать в этой связи.

В этих условиях представляется важным иметь смелость закрепить в законодательстве выглядящее ретроградным право на отказ человека от использования цифровых технологий и роботов и успеть сохранить на время для определенных сфер возможность не доверять сложным технологиям и делать все «по старинке», а также иметь право знать, где и когда эти технологии используются.

Екатерина Мещерякова

Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...