Мошенники развивают интеллект
Европол и Trend Micro изучили, как злоумышленники используют и будут использовать ИИ
Выход ботов на новый уровень, когда их не отличишь от людей. Быстрый анализ баз данных, молниеносный подбор паролей и кража персональных данных даже с изображений. Неограниченные возможности для фишинга и хакерских атак. Манипулирование при помощи сгенерированного «знакомого» голоса и текстов, написанных определенным стилем и языком. Примерно так видят использование преступниками искусственного интеллекта (ИИ) авторы опубликованного на этой неделе совместного доклада Европола, ООН и компании Trend Micro.
Фото: Евгений Павленко, Коммерсантъ / купить фото
Аналитики компании Trend Micro, специализирующейся на кибербезопасности, совместно с Межрегиональным научно-исследовательским институтом ООН по вопросам преступности и правосудия и Европолом подготовили доклад «Злонамеренное использование и злоупотребление искусственным интеллектом». В нем исследуется, как мошенники используют ИИ сейчас, какие способы могут распространиться в будущем и как с этим можно бороться.
Одним из популярных уже сейчас вариантов применения ИИ является дипфейк — поддельные изображения и видео, созданные на основе реальных изображений. С помощью дипфейков возможно создание компромата с последующим вымогательством, подделка документов, распространение дезинформации и манипулирование общественным мнением.
Как отмечают авторы доклада, злоумышленники также применяют ИИ для повышения эффективности вредоносного ПО. Пока что это происходит довольно редко, чаще сами специалисты по кибербезопасности устраивают пробные атаки такого рода, чтобы изучить их. Здесь ИИ скорее дополняет уже имеющиеся вредоносные системы — например, помогая им более эффективно обходить спам-фильтры и другие защитные механизмы. В числе прочего речь может идти о подключении к ИИ облачных сервисов, а также о создании более эффективных программ-вымогателей. «Уже сейчас разрабатываются системы на базе ИИ, которые должны повысить эффективность вредоносного ПО и препятствовать работе антивирусов и технологий распознавания лиц»,— говорится в докладе.
Кроме того, с помощью ИИ, по мнению аналитиков, повышается эффективность подбора паролей. Взлом CAPTCHA с помощью ИИ применяется, чтобы обойти защиту при автоматизированной атаке на ту или иную систему. Кроме того, ИИ используется для шифрования — в опубликованном в прошлом году докладе Европол упоминал 34 приложения для улучшения качества шифрования или, напротив, для его взлома, правда, все они находятся на начальной стадии развития.
Авторы доклада также перечисляют способы использования ИИ, обнаруженные ими на подпольных форумах и имеющие большой потенциал.
Возможно, ИИ скоро начнут применять в видеоиграх для генерации чит-кодов или других мошеннических действий, повышающих эффективность в игре и помогающих зарабатывать деньги.
Также на форумах обсуждаются возможности использования ИИ для хакерских атак — взлома систем, уже упомянутого подбора паролей и др.
Авторы доклада признают, что все перечисленное ими — скорее дело будущего. Сейчас такие системы или только разрабатываются, или обсуждаются теоретически. Тем не менее можно предположить, какие из таких способов применения ИИ получат распространение в будущем.
Например, генератор текста GPT-3 уже сейчас может создавать текст, который на первый взгляд сложно отличить от написанного человеком. Среди вариантов его применения — сымитировать стиль конкретного человека, чтобы, например, разослать сотрудникам компании письма от генерального директора с приказом перевести деньги на счет мошенников. Использование тех же технологий позволит злоумышленникам придать большую правдоподобность кампаниям дезинформации.
ИИ может использоваться для генерирования фишинговых и спам-рассылок, в том числе на не самых распространенных языках, что может повысить охват мошенничества.
Еще одна потенциальная сфера применения ИИ — анализ больших массивов информации, чтобы заполучить номера телефонов или кредитных карт. Более того, системы могут анализировать не только обычный текст, но и изображения, содержащие текст, или видео. В результате у преступников будет мощный инструмент по поиску документов и, например, персональных данных сотрудников на сервере компании.
ИИ получит большое распространение в мошенничестве, основанном на социальной инженерии. Например, его можно использовать для имитации человеческого поведения, чтобы обойти системы защиты, основанные на биометрии и предназначенные для распознавания автоматизированных действий. ИИ-системы, имитирующие поведение человека в соцсетях, могут сделать бессмысленными защитные системы, направленные на выявление обычных ботов. Ведя страницы в соцсетях с активностью, похожей на человеческую, ИИ может генерировать просмотры и лайки, число прослушиваний в музыкальных стриминговых сервисах, трафик сайтов.
Злоумышленники будут применять ИИ для мошеннических автообзвонов, генерируя человеческий голос и лучше анализируя полученные данные.
Таким же образом в будущем станут создаваться голосовые сообщения, в которых ИИ имитирует голос кого-то из знакомых человека и просит перевести ему деньги, или сымитированный голос будет использоваться для обхода банковских систем безопасности.
ИИ может применяться и для обмана систем распознавания изображений. Речь идет о самых разных вариантах — от создания поддельной разметки, вводящей в заблуждение беспилотные автомобили (например, автомобиль неправильно считает ограничение скорости и поедет недопустимо быстро), и сгенерированной ИИ ложной информации для беспилотников, из-за чего они окажутся в руках злоумышленников, до обхода систем распознавания лиц.
ИИ-системы будут использоваться и для финансовых махинаций. Это и манипуляции на фондовом рынке — например, с помощью ИИ могут быть взломаны системы алгоритмического трейдинга. ИИ может и эффективно маскировать инсайдерскую торговлю. Также ИИ может быть использован для незаконной торговли криптовалютами. С распространением интернета вещей и подключения к интернету все большего числа гаджетов злоумышленники с помощью ИИ-систем будут взламывать устройства и использовать их для сбора данных или передачи им тех или иных команд. Речь может также идти об обмане голосовых помощников с помощью ИИ, чтобы они выполняли команды мошенников.