Подменяется в вину

Законодатели предложили добавить дипфейки в Уголовный кодекс

В Госдуму внесен законопроект, который предлагает признать использование дипфейков отягощающим обстоятельством при мошенничестве и клевете. Так, за мошенничество с использованием подменного контента предлагается наказывать штрафом до 400 тыс. руб. или лишением свободы на срок до шести лет. Специалисты по кибербезопасности подтверждают актуальность темы дипфейков: согласно статистике, только за три недели августа было выявлено 3,9 тыс. интернет-публикаций с использованием этой технологии.

Фото: Ирина Бужор, Коммерсантъ

Фото: Ирина Бужор, Коммерсантъ

“Ъ” ознакомился с проектом поправок к Уголовному кодексу РФ в части ответственности за использование технологии подмены голоса или внешности в преступных целях, внесенным в Госдуму 16 сентября главой комитета Госдумы по соцполитике Ярославом Ниловым (ЛДПР) и главой комиссии Совета федерации по информполитике Алексеем Пушковым. Речь об использовании дипфейков — «видео- и аудиоматериалов на основе образцов изображений и голоса гражданина, искусственно воссоздающих несуществующие события», следует из текста законопроекта.

Как рассказал “Ъ” Ярослав Нилов, законопроект делает применение технологии дипфейков «отягчающим обстоятельством» по уже закрепленным в законе преступлениям.

В пояснительной записке к документу сказано, что технология может приравниваться к незаконному использованию биометрических персональных данных. Например, ранее злоумышленники подделывали фотографии для распространения клеветы, а нейросети и искусственный интеллект (технологии «дипфейк», «цифровые маски» и т. д.) позволяют создавать подделки, которые почти нельзя отличить от реальных.

Из документа следует, что применение дипфейков для «клеветы» (ст. 128.1 УК РФ) предлагается наказывать штрафом до 1,5 млн руб., арестом на срок до трех месяцев либо лишением свободы на срок до двух лет. Применение подмены голоса или изображения для хищения средств и мошенничества (ч. 2 ст. 159 УК РФ) может повлечь наказание в виде штрафа до 400 тыс. руб. или лишения свободы на срок до шести лет.

Мошенничества с использованием дипфейков стали широко распространяться с начала года. В частности, заметной была атака FakeBoss (ложный начальник) — звонки мошенников с использованием подмены голоса. Как правило, такие звонки поступали в Telegram со специально созданных аккаунтов, копировавших реальные профили пользователей (см. “Ъ” от 25 января). После обострения российско-украинского военного конфликта на территории Курской области в сети стали распространяться дипфейки, имитирующие заявления регионального правительства.

По данным АНО «Диалог Регионы», с 6 по 28 августа было выявлено 23 уникальных дипфейка, по которым создано 3,9 тыс. публикаций в сети.

«Мы видим, что число дипфейков постоянно растет, в том числе со стороны преступников, которые выдают себя за известных людей, призывая к участию в различных мошеннических схемах»,— говорит бизнес-консультант по кибербезопасности Positive Technologies Алексей Лукацкий. Он считает, что по мере более активного внедрения Единой биометрической системы в различные финансовые процессы число мошенничеств с дипфейками будет только возрастать. В ЕБС хранятся данные голоса, параметры лица гражданина и другие биометрические данные, с помощью которых можно совершать финансовые операции или получать госуслуги.

Метод синтеза контента, основанный на искусственном интеллекте, заслуживает отдельного закрепления в указанных статьях как отдельный способ совершения преступления, считает руководитель практики уголовного права и уголовного процесса МКА «Могильницкий и партнеры» Максим Глотов. Впрочем, некоторые юристы считают законодательную инициативу избыточной. На данном этапе «непонятно, чем обман, например, с использованием поддельного документа отличается от обмана с использованием искусственного изображения», отмечает партнер «Залесов, Тимофеев, Гусев и партнеры» Антон Гусев.

Татьяна Исакова

Гражданам предложено право голоса

В Госдуму 16 сентября внесен законопроект об охране голоса как объекта личных неимущественных прав. Он предлагает поправки к ГК РФ и закрепляет, в частности, что обнародование и дальнейшее использование голоса гражданина, в том числе записи, допускаются только с согласия гражданина. «После смерти его голос может использоваться только с согласия детей и пережившего супруга, а при их отсутствии — с согласия родителей»,— следует из документа. Но согласие не потребуется, когда голос используют в государственных, общественных или иных публичных интересах или запись голоса производилась за плату. А также в случаях, когда голос записан при видео- или аудиозаписи, которая проводится в местах, открытых для свободного посещения, или на публичных мероприятиях.

Записи, использующие голоса граждан с нарушением, «подлежат изъятию из оборота и уничтожению без какой бы то ни было компенсации» на основании судебного решения, следует из законопроекта. Таким образом, поправки к ГК РФ устанавливают охрану голоса как объекта личных неимущественных прав гражданина по аналогии с его изображением, в том числе в случаях имитации голоса или синтеза речи.

Авторами инициативы выступили председатель комитета Совета федерации по конституционному законодательству Андрей Клишас, сенаторы Артем Шейкин, Наталья Кувшинова, Руслан Смашнев и депутат Госдумы Даниил Бессарабов.

Из пояснительной записки к проекту следует, что в результате активного развития технологий синтеза речи и их массового использования во всех сферах, в том числе при озвучивании контента (аудиовизуальные произведения), автоматизации работы операторов колл-центров, голосовых систем навигации, помощников и т. д., возникают правовые вопросы, требующие законодательного решения. В частности, искусственный интеллект, обучившись на аудиозаписях реального голоса, может в дальнейшем его имитировать, и «производные» записи могут быть использованы неприемлемо для человека — обладателя голоса, пишут авторы инициативы.

Татьяна Исакова

Зарегистрируйтесь или войдите, чтобы дочитать статью

Это бесплатно и вы сможете читать все закрытые статьи «Ъ»

Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...