Дипфейки, написанные с натуры
Как в России защищаются права на черты личности
Технологии, позволяющие синтезировать внешность и голос живого человека, используются как в легитимных целях, — например, в кинематографе, — так и со злым умыслом. «Ъ-Review» оценил, в какой степени к популяризации дипфейков оказалось готово российское законодательство.
Фото: Александр Миридонов, Коммерсантъ
Проблемы синтеза речи — одни из старейших, с которыми сталкивались ученые на пересечении технологий и лингвистики: первые машины для создания искусственного голоса появились еще в 1930-х годах. Современные же технологии позволяют не просто генерировать речь вместе с соответствующим ей видеорядом, но и основывать синтез на образе другого человека, технически — и без его ведома. Создание дипфейков (то есть, генераций, созданные с применением технологий машинного обучения) уже давно вышло за рамки академического интереса.
В отдельных сферах деятельности дипфейкам нашлось легитимное применение, например, в кинематографе — для воссоздания образов умерших или заметно постаревших актеров. В числе последних российских проектов, чьи авторы анонсировали такое применение — «Манюня: Приключения в Москве» Гевонда и Сарика Андреасяна: технология позволит воссоздать образ актера Юрия Никулина. Отдельно синтез речи используется «в разработке диалоговых ассистентов для контактных центров крупного бизнеса и госсектора, для озвучки пользовательского интерфейса для слабовидящих, для создания медиаконтента», перечислил гендиректор группы компаний ЦРТ Дмитрий Дырмовский.
Но технологии применяются и для создания фиктивных публичных сообщений: так, в июне 2023 года после взлома ряда теле- и радиосетей на них стало распространяться объявление от лица президента Владимира Путина с объявлением всеобщей мобилизации. Тем же рискам подвержены и менее известные лица: как сообщала компания Start X, злоумышленники в начале 2024 года стали подделывать голоса отдельных людей, чтобы убеждать их родственников и коллег перевести деньги.
В России нет ни рамочного закона, который бы регулировал такое использование нейросетей, ни упоминания дипфейков в других нормативно-правовых актах. Попытки ввести дипфейки в правовое поле не находили поддержку в правительстве. Так, в частности, случилось с законопроектом депутата от ЛДПР Сергея Леонова: как сообщал в 2023 году ТАСС со ссылкой на документ, правительство сочло избыточным идею классифицировать создание неавторизованных дипфейков как преступление. Но создателям «искусственных двойников» уже приходится учитывать, что их деятельность без должной правовой очистки может быть признана незаконной.
Вручить лично под роспись
Закон защищает право на изображение человека, соответствующая норма прописана в ст. 152.1 ГК РФ, говорит руководитель практики интеллектуальной собственности Verba Legal Алексей Дарков. Под изображением понимаются фотографии человека, а также видеозаписи или произведения изобразительного искусства, в которых он изображен. «Согласно данной норме, гражданин вправе запретить обнародование и использование своего изображения, если на это не было получено согласие»,— отмечает господин Дарков. А вот более широкое понятие «внешности человека», по словам старшего консультанта O2Consulting Алисы Ереминой, в законе отсутствует: «Это собирательное явление, состоящее из различных элементов, каждый из которых может регулироваться отдельной нормой».
Гендиректор Promobot Максим Чугунов сказал “Ъ”, что компания, создавая человекоподобных роботов с личностями реальных людей, «берет у людей согласие на использование и документально их оформляет». При этом он отмечает, что в случае с известными актерами необязательно добиваться такого согласия со стороны конкретного человека: «Можно взять согласие у его двойника». Также он отмечает, что изображение человека стало доступным к свободному использованию после его смерти его детей и супруга, а при их отсутствии — его родителей.
Но в случае с актерами, добавляет господин Чугунов, ситуацию осложняет разница между личностью человека и образом персонажа, в виде которого предстает актер: «В таком случае нужно приобретать права не столько у конкретного человека на использование его внешнего вида, сколько у стороннего правообладателя, например, продюсера — на использование образа». Получать разрешение нужно и на обработку исходных материалов, используемых при создании дипфейков — фонограмм, исполнений, фрагментов фильмов и т.п., добавляет господин Дарков: «Должен быть договор, в котором будут указано право использовать, перерабатывать предоставленный объект».
По праву голоса
Обеспечить голосу человека ту же правовую защиту, что и его изображению, сенаторы предлагают еще с прошлого года. К июню соответствующий законопроект «Об охране голоса», как сообщал «Ведомостям» его соавтор Артем Шейкин, ожидал отзыва правительства. При этом, если инициатива будет принята, она даст государству право использовать «в общественных интересах» голос умерших людей, записанный на публичных мероприятиях, без необходимости спрашивать согласие у родственников. Подобная оговорка уже содержится в статье ГК об охране изображения человека
Рассматривая голос как нематериальное благо, подобно изображению, юристы «встают на более зыбкую почву», считает партнер практики интеллектуальной собственности Comply Максим Али: «Что, если сгенерированный голос не ассоциируется с конкретным человеком? В зарубежной практике суды, решая, нужно ли защищать голос, учитывали, обладает ли этот голос известностью».
К нематериальным благам, согласно ст. 150 ГК, относятся честь, достоинство и деловая репутация. В прошлом году актриса дубляжа Алена Андронова подала к Тинькофф-банку (сейчас — Т-банк) именно иск о защите последней. Поводом к претензиям актрисы стало неавторизованное использование ее голоса в сервисе синтеза речи VoiceKit, доступном сторонним заказчикам. «Один из ключевых вопросов в этом деле — должен ли голос охраняться сам по себе. Если стороны не закончат спор миром, позиции судов могут пролить свет на легальность голосовых дипфейков»,— сказал господин Али. В мае Савеловский суд Москвы назначил дело к разбирательству, следующее заседание назначено на 12 августа.
Госпожа Еремина сочла возможным, в зависимости от способа использования дипфейка, применять положения не только лишь Гражданского кодекса: «Например, дипфейк может быть рассмотрен как комбинация биометрических данных человека, что позволяет применить положения федерального закона о персональных данных. Ведь акустические данные могут быть использованы для установления личности, а значит, его использования без согласия и соблюдения всех требований является незаконным». При этом она признала, что в судебной практике пока еще нет «громких и релевантных дел по данной тематике».
Разработчики сервисов синтеза речи могут при своем желании и желании заказчика обеспечивать больший контроль за тем, кто и как их использует, говорит господин Дырмовский: «Например, за счет интеграции синтеза речь в состав решений, которые устанавливаются on-premise, в защищенный контур организации». Он добавил, что компания сама соблюдает все процедуры по получению согласий и одновременно «разрабатывает технологию обнаружения дипфейков, которые включают синтезированную речь».
Этот текст — часть нового проекта ИД «Коммерсантъ», посвященного трендам бизнеса и финансового рынка. Еще больше лонгридов с анализом ключевых отраслей российской экономики, экспертных интервью и авторских колонок — на странице Review.