Охотники за голосами
Как и зачем злоумышленники создают дипфейки
Мошенники стали чаще покупать записи голосов россиян. Они готовы платить от 300 руб. до 5 тыс. руб., чтобы получить качественное аудио для создания дипфейка — реалистичной речи, сгенерированной при помощи искусственного интеллекта, сообщили «РИА Новости». Подделать голос можно и с помощью видео, которое пользователи размещают в социальных сетях.
Фото: Ирина Бужор, Коммерсантъ
Но тогда запись будет некачественной и вызовет сомнения, говорит директор и партнер компании «IT-Резерв» Павел Мясоедов. По просьбе “Ъ FM” он объяснил, как злоумышленники обходят эти препятствия: «Для того чтобы дипфейк получился качественнее, они идут на открытые площадки. Мошенники указывают, что голоса им нужны для озвучивания игры, кино, для социального эксперимента. Размещают объявление, где предлагают приобрести запись голоса. У человека просят прочитать абзац текста. Записи с большим количеством словесных паттернов загоняют в программы, после чего они достаточно быстро могут вести диалог от любого индивидуума. Зачастую люди, чтобы заработать 200-500 руб., не будут пытаться найти какие-то подводные камни, и предоставят такую услугу».
В январе Центробанк предупредил россиян о мошенниках, имитирующих голоса родственников через специальные программы. С помощью дипфейков аферисты попытались обмануть более двух тысяч россиян, подсчитали в RTM Group. По данным технологической компании Onfido, в 2023 году использование искусственного интеллекта для кражи денег выросло более чем в 30 раз по всему миру. После внедрения единой биометрической системы в финансовую среду злоумышленники, создающие дипфейки, смогут навредить россиянам еще сильнее, считает консультант по интернет-безопасности компании Positive Technologies Алексей Лукаций:
«Мы вышли на новый виток развития этих технологий, учитывая, что во всем мире достаточно активно внедряются системы биометрической идентификации. Злоумышленники готовятся к этому, собирая персональные данные граждан в виде голоса, а в перспективе, возможно, дойдет и до видеоизображений, и такие в принципе факты уже появляются по мере завязывания на единую биометрическую систему различных финансовых процессов.
Мошенники начнут фальсифицировать голосовые или видеоподтверждения. Мы получим примерно те же самые схемы с мошенничеством, что и сейчас, только в качестве идентификатора будет использоваться не логин, не пароль, а данные нашего голоса, либо лица. Для борьбы с дипфейками нам необходима двухфакторная аутентификация, регулярное обновление программного обеспечения. А в перспективе, я думаю, во многих продуктах — и браузерах, и мессенджерах — появятся технологии детектирования дипфейков, пометок о том, что данные не подтверждены, похожи на мошеннические».
За прошлый год кибермошенники украли у россиян почти 16 млрд руб., подсчитал Центробанк. При общении с жертвами злоумышленники чаще всего использовали фразы «оформлена заявка на кредит», «сотрудник банка», «специальный или безопасный счет». При этом треть успешных операций была совершена без согласия клиентов.
С нами все ясно — Telegram-канал "Ъ FM".