Дипфейк до тюрьмы доведет

Будет ли эффективным ужесточение наказания за подмену аудио- и видеоматериалов

За использование дипфейков предлагают ввести уголовную ответственность. За подмену голоса или изображения человека с помощью искусственного интеллекта мошенникам будет грозить штраф до 1,5 млн руб. и лишение свободы до семи лет. Законопроект в конце мая внесет в Госдуму глава комитета по труду, социальной политике и делам ветеранов Ярослав Нилов, с документом ознакомились «Известия». Как значится в пояснительной записке, дипфейки и цифровые маски позволяют создавать подделки, которые сейчас практически невозможно различить обывателю.

Фото: Алексей Смагин, Коммерсантъ

Спектр использования нейросетей мошенниками постоянно растет, поэтому регулирование отрасли необходимо, говорит директор лаборатории «Сенсор-Тех» Денис Кулешов: «Алгоритмы искусственного интеллекта достаточно просто могут имитировать голос реального человека. Для этого нейросеть достаточно обучить на нескольких аудиофрагментах, например, интервью человека или каких-то выхваченных в социальных сетях репликах. В рамках телефонного разговора ИИ вполне сможет подражать голосу какого-то знакомого или родственника.

С видео ситуация чуть сложнее, потому что по картинке, если вглядываться, можно понять, что изображение сгенерировано компьютером. С помощью алгоритмов искусственного интеллекта можно создавать разные вещи, например, особенности того, как человек печатает на клавиатуре. Поскольку сейчас эпоха всеобщей цифровизации, мы активно о себе рассказываем в интернете, показываем все. Понятное дело, что формируется большой объем данных, к которым алгоритмы могут получить доступ.

Механизм контроля дипфейков заключается в том, что надо выработать систему отслеживания попыток мошеннически использовать эти данные. Мы постепенно движемся к тому, что весь цифровой контент, который будет создаваться и передаваться, будет дополнительно защищен какими-то способами, которые будут показывать, что он действительно создан человеком, а не синтезирован и не воспроизведен где-то на серверах и так далее. Если посмотреть технологический цикл изменения инноваций в каждой сфере, то он обычно составляет пять-десять лет».

Как следует из законопроекта, поправки готовятся, в частности, в статьи о клевете, краже, мошенничестве и вымогательстве. В документе обозначат признаки преступлений с использованием изображения или голоса, а также биометрических данных. Подобные дела уже рассматриваются в суде, но ужесточение закона облегчит процесс, поясняет управляющий партнер юридической фирмы True Legal Владимир Ожерельев: «Термины "дипфейк" и "цифровые маски" сейчас не используются в законодательстве, и, конечно, тем или иным образом их стоит определить, чтобы регулировать новые технологии, защищать права граждан.

В законе уже есть статьи и за клевету, и за вторжение в личную жизнь, которые, в принципе, могут использоваться в случае таких нарушений. Но для обычных граждан возбуждение уголовных дел по таким статьям — это, конечно, трудоемкая задача. Дело в том, что дипфейки, цифровые маски и голос, который генерируется такими системами, предоставляют намного более широкие возможности для злоумышленников, чем клевета или вторжение в личную жизнь какими-то более привычными способами.

Можно ожидать, что будет всплеск этих преступлений. И, наверное, действительно имеет смысл ужесточить наказание, чтобы их предотвратить. Но этого в любом случае будет недостаточно, потому что возможности злоумышленников опережают возможности правоохранительных органов, особенно если авторы дипфейков находятся за границей, тогда их привлечь к ответственности будет еще сложнее».

Только в телефонном мошенничестве за первые три месяца 2024-го число дипфейков превысило полмиллиона, столько случаев было зарегистрировано за весь 2023 год, говорят эксперты. Сгенерированных с помощью нейросетей видео стало в три раза больше, а подставных аудио — в восемь раз. По данным Positive Technologies, в первом квартале этого года социальная инженерия использовалась в 85% мошеннических атак на россиян.


С нами все ясно — Telegram-канал "Ъ FM".

Елена Тюленева

Вся лента