Фальшивый голос наговорил на сотни тысяч долларов
Каким образом мошенники украли деньги у главы британской компании
Впервые в Европе мошенники подделали голос с помощью искусственного интеллекта и украли четверть миллиона долларов. В Великобритании генеральный директор энергетической компании перевел киберпреступникам деньги после телефонного разговора с роботом. Подробности этой истории — у Виктории Феофановой и Александра Рассохина.
Генеральный директор одной британской энергетической компании поговорил по телефону со своим начальником — руководителем головного офиса в Германии. Тот попросил его срочно перевести венгерскому поставщику почти $250 тыс. Деньги ушли на счет венгерского банка, а британский топ-менеджер даже не заподозрил, что все это время разговаривал с роботом. Голос на другом конце линии был так похож на голос его начальника: искусственный интеллект имитировал не только манеру общения, но и легкий немецкий акцент. Афера вскрылась, лишь когда мошенники попытались провернуть этот трюк во второй раз.
Это, пожалуй, самое крупное киберпреступление такого рода, но злоумышленники должны были где-то достать записи голоса, поясняет директор по лингвистическим разработкам компании «Наносемантика» Анна Власова: «Вначале мошенники должны были получить разговоры того человека, чей голос они потом имитируют. Это, кстати, вопрос, как они его получили. Скорее всего, мошенничество начинается с этого, потому что просто так вы не найдете достаточно записей одного и того же человека, чтобы успешно синтезировать его голос».
Деньги киберпреступники отправили сначала в Мексику, а затем распределили их по разным счетам. Пока полиция не смогла их найти. О том, что мошенники начали использовать подделанные голоса, предупредили и в Центробанке. Такие преступления в России по большей части происходят в социальных сетях и пока без участия искусственного интеллекта. Схема старая: аккаунт жертвы взламывают и либо звонят друзьям с просьбой одолжить деньги, либо рассылают сообщения. Таким образом удалось украсть уже почти 0,5 млрд руб. Обучать искусственный интеллект имитировать голос определенного человека дорого и неэффективно, полагает замначальника департамента информационной безопасности Центробанка Артем Сычев: «Применимость таких методов мошенничества крайне низкая. Для этого нужно, чтобы злоумышленник точно знал, что жертва правильно среагирует на этот голос.
Если говорить о биометрической идентификации, то ее использование для обмана вообще нецелесообразно, поскольку для этой идентификации требуется комбинация голоса, лица, некоторых других параметров».
Но эксперт по нейросетям сервиса «Битрикс24» Александр Сербул с регулятором не согласен. По его мнению, мошенничества с участием искусственного интеллекта будут развиваться: «С помощью искусственного интеллекта можно и голос подделать, даже видео сделать — реалистичные изображения, которых в природе не существует, но их не отличить от настоящих. Это сделать несложно. Достаточно в облаке Amazon поднять машинки на GPU, а там они сдают в аренду, за небольшую денежку можно поднять и кластера и в течение суток обсчитать нейросеть, и подделать голос директора. О чем это говорит? Что нужно понимать, как работает вообще структура информационной безопасности».
По мнению европейских специалистов, мошенники будут подделывать голос все чаще. Этому способствует и то, что программы, которые позволяют имитировать чужой голос, сейчас продают многие компании. При этом для их использования не нужны какие-то специальные навыки.
Искусственный интеллект используют и для борьбы с киберпреступниками. IT-аналитики отмечают, что через пару лет применять нейросети для защиты данных будет около 40% компаний в мире.