Сергей Капица как искусственный интеллект

В чем опасность цифрового двойника человека

Искусственный интеллект уже живет с нами, но законодатели во всем мире пока не могут разобраться, что нужно больше — защищать его или защищать от него. Сколтех для ответа на этот вопрос пошел неожиданным путем — через научно-популярный проект ИИ-двойника Сергея Капицы. О подходах к правовому регулированию ИИ и о том, как может помочь Госдуме цифровой Сергей Петрович, мы поговорили с Дмитрием Головановым, юристом проекта Kapitsa.AI.

Kapitsa.AI — проект-эксперимент по разработке ИИ-двойника Сергея Капицы. Его создает команда разработчиков из Сколтеха, Института искусственного интеллекта AIRI и Самарского университета при поддержке Минобрнауки РФ, а процесс разработки документируется в соцсетях проекта, чтобы развеять мифы и предубеждения об искусственном интеллекте и сформировать здоровую дискуссию.

Дмитрий Голованов, юрист проекта Kapitsa.AI

Дмитрий Голованов, юрист проекта Kapitsa.AI

Фото: Предоставлено пресс-службой Сколтеха

Дмитрий Голованов, юрист проекта Kapitsa.AI

Фото: Предоставлено пресс-службой Сколтеха

— Сколько лет правовому регулированию ИИ в мире?

— Оно весьма юно. Это вопрос последних пяти-семи лет, если мы говорим о настоящем правовом регулировании: нормативных актах и дискуссиях вокруг них. ИИ как математическая история возник давно, но юридический вопрос встал остро только в последние годы из-за того, какой скачок эти технологии сделали. США — один из основных игроков, они много инвестируют, у них больше всех моделей, разработок, практических решений и, соответственно, правовых коллизий. Есть ЕС и Китай, они каждый идут своим очень разным путем. Мы в России находимся не на фронтире, но подходим к нему, я бы сказал, на одном уровне с Израилем и Латинской Америкой. Но эта сфера новая везде.

— Можно ли уже говорить о сформировавшихся подходах к этому регулированию?

— Да, собственно, их три — по трем основным названным выше игрокам.

Европейский подход — риск-ориентированный: оценить угрозы и их ограничить. Чем больше риски в ИИ решениях — тем больше ограничений. Именно этот подход отражает Artificial Intelligence Act, это регламент ЕС, принят в этом году.

Пространство для дискуссии

В отсутствие сложившегося правового регулирования цифровых двойников этические правила являются эффективной поддержкой: манифестируя в декларации проекта принципы работы, мы и формулируем правила для команды, и прозрачно объясняем сообществу, какие решения для нас приемлемы, а какие — нет, разумеется, сохраняя пространство для дискуссии и корректировки нашего подхода.

Американский подход — это более «капиталистическая» модель, ориентированная на продуктовую составляющую. Это двойное движение — с одной стороны, делайте что хотите, это бизнес, а с другой, делайте по стандартам. Стандарты и призваны обеспечить безопасность, конфиденциальность, alignment — а также требования соблюдать общее законодательство. Второй аспект американского подхода — это ситуативное регулирование: решение конкретных узких задач.

Китайский подход для меня наименее понятен: Китай — очень закрытая система, данных мало. Но если я правильно его представляю, то это максимальное регулирование, больше всего запретов и ограничений. Мы чувствуем это даже в нашем институте: в случае с ИИ иногда китайские коллеги сомневаются в совместных проектах и говорят, что очень подробное регламентирование на их стороне затруднит совместную работу.

— А где в этом треугольнике находится российское регулирование?

— РФ склоняется к тому, что мы пока ИИ не регулируем, находимся на стадии внедрения стимулирующих мер (в том числе юридических) для разработки и внедрения искусственного интеллекта. Есть указ президента «О развитии искусственного интеллекта в Российской Федерации», и он более инструментальный, чем регламентирующий, говорит, куда мы должны двигаться — развивать образование, технологии, спонсировать бизнес, который делает ИИ. В будущем, когда рынок разовьется, регулирование будет, и к этому нужно готовиться, но это скорее вопрос второй половины 2020-х годов.

Законы уже защищают

— Перейдем к ИИ-двойникам. Какие риски и какие правовые коллизии они несут?

— Некоторые из них уже стали заголовками новостей. Знаменитостям уже досаждают возможности ИИ. Например, Тейлор Свифт столкнулась со сгенерированными порнографическими материалами. Скарлетт Йоханссон против того, что ее голос используют без ее согласия для ИИ-помощника от Open AI.

Обычные люди, не селебрити, сталкиваются с дипфейками в банковских и избирательных технологиях мошеннического характера, когда к ним втираются в доверие. На таких кейсах и основывается ситуативное регулирование: в разных штатах США уже принято несколько законов, которые запрещают использовать дипфейки в избирательных кампаниях, для них это очень чувствительный вопрос. Такой тип регулирования типичен для США — возникает конкретный кейс, он есть и обсужден в суде, по нему узко работают. В США прецедентное право — человек идет в суд, там доказывает, что ситуация нарушает его права и интересы, суд принимает решение, возникнет прецедент, который может найти отражение и в законодательстве.

В случае с Тейлор Свифт для решения проблемы было достаточно имеющегося инструментария. Была сгенерированная порнографическая фотография, она разлетелась по соцсетям — и сами соцсети стали ее блокировать, она нарушала и их внутренние правила, и законы страны. Цифровые двойники ведь существовали и без ИИ, изменилось только их качество и распространенность.

— Получается, что отчасти их уже регулирует действующее законодательство?

— До некоторой степени да. В правовом поле сейчас нет такой категории, как двойники, но есть некоторые инструменты, которые позволяют с этими двойниками работать и защищать права, если они нарушаются. Например, в российском законодательстве, в Гражданском кодексе уже лет пятнадцать зафиксировано право на изображение. Еще до распространения ИИ были кейсы: например, фото актера Юрия Яковлева из фильма «Иван Васильевич меняет профессию» недобросовестно использовали в рекламе, и правовой инструмент сработал, защитил права актера.

Но у ИИ-двойника есть компонент, который сейчас правовая terra incognita,— голос. Сейчас он никак не защищен законом. Но в Думу уже внесен законопроект, который будет регулировать использование голоса в той же логике, что и право на изображение. Это будет шаг вперед, хотя и без необходимых революционных изменений: проект, по сути, дублирует логику закона, принятого больше десятилетия назад, и не учитывает сегодняшние реалии, например, то, что ИИ может не только копировать голос, но и имитировать его, формируя новые диалоги и имитируя общение.

Полевое исследование: цифровой Сергей Петрович

Проект ИИ-двойника Сергея Капицы

Проект ИИ-двойника Сергея Капицы

Фото: Предоставлено пресс-службой Сколтеха

Проект ИИ-двойника Сергея Капицы

Фото: Предоставлено пресс-службой Сколтеха

— Но ведь есть вещи, которые в логику работающих законов уже совсем не укладываются?

— Есть. Текущее законодательство воспринимает изображение как ваше личное неимущественное право: вы даете разрешение его использовать или нет. Но право на изображение и звук становится существенно более оборотоспособным ресурсом. Цифровые двойники группы ABBA дают концерты, продвинутые коучи делают цифровой аватар, который за них читает лекции, отвечает на вопросы — вы с ним общаетесь, как с живым человеком. Тем самым повышается экономическая оборотоспособность образа. Можно использовать похожего до степени смешения персонажа в значительной степени автономно.

В такой ситуации больше как рисков, так и возможностей, и это нужно регулировать таким двунаправленным образом — давая возможности и защищая от рисков. Пожалуй, это то, что действительно возникло только с приходом ИИ, это вызов для права.

— И Сколтех решил провести полевое исследование этой проблематики через коммуникационный проект — ИИ-двойника покойного ученого и популяризатора науки Сергея Петровича Капицы?

— В основном мы фокусируемся на том, как именно, с помощью каких технических инструментов создается этот продукт интеллектуальной деятельности. Но нам важна его эволюция и с точки зрения технической, и с точки зрения общественного восприятия. Часть работы — исследование реакции академического сообщества, родственников и иных заинтересованных лиц. Мы видим и фиксируем нарастание как интереса к продуктам и тематики ИИ, так и конфликтной повестки вокруг использования цифровых двойников известных людей, а также рост угроз мошеннических и негативных действий. Считаем, что и правовое поле, и общественное отношение к явлению будут меняться. Наша экспертиза в этом вопросе не только практическая (как производителя цифрового аватара Капицы), но и теоретическая (как академической и экспертной организации).

— Какие вам пришлось получить разрешения, чтобы сделать двойника?

— Это как раз один из интересных вопросов, который остается в некоторой степени открытым и будет предметом регулирования. Как мы уже обсудили, использование образа человека урегулировано действующим законодательством России частично. Сколтех получил от родственников покойного право использовать его изображение, и это все, что нам нужно, чтобы соблюсти действующее законодательство. Но это не описывает ситуацию полностью. Голос может использоваться, формальных ограничений нет, но что сделать с тем, что аватар «придумает» и скажет сам? Кто должен определять содержание высказываний двойника, имитирующего реального человека? Правовое структурирование цифрового профиля человека сейчас явно недостаточное.

Мы видим и ограничение для производителей цифровых двойников: использование цифрового образа человека затруднено тем, что после смерти такое может санкционировать очень узкий круг людей (ближайшие родственники), а у них может быть очень разное отношение или их может вообще не быть. Нам повезло: родственники Сергея Петровича заботятся о его наследии и отнеслись позитивно к нашему начинанию.

— Какую реакцию вызвал цифровой Капица?

— Для нас все начиналось с простого тезиса: давайте сделаем цифровой аватар и посмотрим, как на него посмотрят люди. Это некоммерческий проект, который популяризирует науку и образование: казалось бы, исключительно плюс для академического сообщества? Одна часть его представителей так и считает, реагирует позитивно и признает, что это передний край современной науки. Но другая часть — против, считает, что это плохо и мы делаем искусственную сущность там, где это неуместно. Академическое сообщество разнообразно — есть молодые ученые гики, а есть и люди более возрастные, менее ориентированные на интернет и цифровую повестку. Мы собираем разные реакции и думаем, как развивать проект. Уже точно ясно, что нам нужно объяснять аудитории, как это сделано и зачем это сделано,— тут наш проект модифицировался, усложнился по ходу развития. У нас есть целая проектная команда, где мы регулярно разговариваем, что нам нужно скорректировать, какой подход поменять, какую информацию включить и объяснить. И это наша новация: обычно ИИ — это тема программистов и инженеров, которые соревнуются, кто технически круче, образно говоря, у кого лучше настроена 3D-графика и не «лагает» голосовая модель. Мы, разумеется, не отсекаем таких экспертов, им мы даем максимальное описание технических решений. Но мы даем и описание героя, и внутреннюю кухню: какие у нас возникают сложности в его создании вне технического аспекта. Мы собрали все это — и комплименты, и вопросы, и сомнения — и будем делать этическую декларацию проекта. Объясним, для чего он нужен, какие ограничения мы себе ставим, чем руководствуемся — что будем делать, а что не будем ни при каких условиях.

Как быть, когда двойник есть, а оригинала уже нет

— Проект еще не очень долгий, но какие-то выводы вы уже сделали, будете предлагать пути регулирования?

Мы приходим к мысли, что значительная часть вопросов сейчас юридически не регулируется, и это на данном этапе правильно. Нет сейчас ни опыта, ни его достаточного осмысления, чтобы регулирование получилось работающим и качественным, а не запретительным. Мы как ответственные ученые и исследователи считаем, что на данном этапе большое значение имеет саморегулирование. Оно работает уже сейчас. Есть известный Альянс в сфере искусственного интеллекта, который занимается соответствующими вопросами, им разработаны декларация, этический кодекс разработчиков ИИ — это наша первая линия. Применение этических норм, разработанных индустрией, а также сформулированных нами применительно к конкретному проекту обусловливает защиту тех, кто потребляет контент.

Большие добросовестные игроки, когда используют ИИ, маркируют полученные продукты. Конечно, есть маленькие игроки, которые будут эту историю обходить и игнорировать. Но со временем какой-то стандарт возобладает и станет общим. Наша задача сейчас — чтобы консенсус между разработчиками ИИ-продуктов и их потребителями был найден без потерь для какой-либо из сторон.

Другой вопрос — наследственный, которого мы уже коснулись с родственниками Капицы. Нет решений в отношении давно умерших людей, которых с помощью ИИ можно легко оцифровать: у кого получать разрешение, какие им можно приписывать высказывания и действия, должны ли они соответствовать исторической справедливости? Или давно ушедшие люди в восприятии людей — просто персонажи, у которых нет исторической субъектности и «права голоса»?

А у современного человека после ухода из жизни остается существенный цифровой след. С ним что происходит, как его сохранять и можно ли использовать? Недавно в ДТП погибла девушка-автоблогер, и ее родственники решили, что с помощью ИИ-копии они будут продолжать вести ее автоблог. Это совершенно серая зона — имеют ли они на это право, что они вложат в эту новую виртуальную сущность?

Мне кажется, что здесь разумно вводить больше элементов наследственного права: человек должен иметь возможность назначить управляющего для своего образа или запретить его использование вовсе.

Со временем может появиться и содержательный вопрос о личности цифрового двойника: он должен полностью копировать человека (включая характер, логику, ценности) или, может быть, человек сможет оставить список грехов и добродетелей, которые нужно вложить в ИИ-модель? Получится, что цифровая копия будет отличаться от человека не в силу действий разработчика, а на основании решения оригинала?

Нужно формировать этические стандарты максимально понятными, удобными для государства и для общества. Найти компромисс, который не ограничивал бы развитие, но не давал ИИ двигаться в опасную для общества сферу. И когда время для регулирования подойдет, те принципы, которые мы сейчас разумно сформулируем, станут основой законодательства.

Иначе есть простой риск, что придет депутат и скажет: «Мы тут посмотрели на вашу неразбериху и решили: пока ничего делать нельзя, а дальше мы сами решим».

Материал подготовила Александра Борисова-Сале

Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...