Дипфейки стали политтехнологией
Как искусственный интеллект запутывает избирателей перед выборами
Активное развитие искусственного интеллекта (ИИ) делает все более острой проблему использования дипфейков — поддельных изображений, видео и аудио, созданных с помощью ИИ на основе реального контента. С их помощью злоумышленники входят в доверие к клиентам банков и воруют у них деньги, создают компромат и т. д. Беспокойство вызывает и использование дипфейков в предвыборных кампаниях, причем подобные случаи наблюдаются по всему миру.
Фейковый Байден и обращение Сухарто
В конце января, за несколько дней до праймериз в Нью-Гемпшире, тысячам местных демократов поступили звонки, в которых их убеждали не ходить на праймериз. «Голосование в этот вторник лишь поможет республиканцам в их стремлении снова выбрать Дональда Трампа. Ваш голос будет иметь значение в ноябре (когда в США пройдут президентские выборы.— “Ъ”), а не в этот вторник»,— слышали они по телефону знакомый голос президента США Джозефа Байдена.
Звонку поверили многие: на телефонах отображался номер одного из известных членов Демократической партии из Нью-Гемпшира. Звонил, однако, конечно, не президент США. Эксперты из компании Pindrop, специализирующейся на кибербезопасности, пришли к выводу, что имитация голоса президента США была сделана с помощью ИИ. В офисе генерального прокурора штата звонки назвали незаконной попыткой воспрепятствовать голосованию и начали расследование. Позже прокуратура заявила, что, по ее данным, записи изготавливала компания Life Corp. из Техаса, и потребовала от нее прекратить подобную противоправную деятельность.
История с фальшивым звонком от президента Байдена, говорят эксперты, только начало.
На нынешний год в мире запланировано много важных выборов. По данным Международного фонда избирательных систем, общенациональные выборы пройдут примерно в 70 странах, в которых живет около половины населения Земли, включая Великобританию, США, Индию, Пакистан, Россию, не говоря уж о выборах в Европарламент.
И использование дипфейков не ограничивается Соединенными Штатами. В Индонезии было распространено видео с предвыборным обращением Сухарто, который был президентом страны в течение трех десятилетий и умер в 2008 году. Оно распространялось в разных соцсетях и набрало около 5 млн просмотров.
В этом видео «Сухарто» призывал голосовать за кандидата, поддержанного одной из крупнейших в Индонезии партий — «Голкар», к которой принадлежал и сам бывший президент. Партия не выставляла собственного кандидата на этих выборах, но поддержала одного из кандидатов в президенты — Прабово Субианто, который был одним из приближенных Сухарто и его зятем. Видео первым запостил Эрвин Акса, заместитель главы «Голкар». Он заявил, что видео должно было «напомнить нам, насколько важны наши голоса на предстоящих выборах».
Посмертное обращение индонезийского диктатора много критиковали, но оно оказалось действенным: популярность Субианто выросла. Выборы состоялись 14 февраля. По предварительным данным, Субианто получил 60% голосов. Окончательный результат будет опубликован в марте.
В другом предвыборном видео в Индонезии с помощью ИИ сгенерировали детей, чтобы обойти правило, запрещающее привлекать детей к съемке политических роликов.
Боты и ИИ как угроза
В январе ученые из американского Университета Джорджа Вашингтона опубликовали исследование, из которого следует, что использование ИИ для манипулирования мнением людей в условиях многочисленных предвыборных кампаний в текущем году усилится. «Можно прогнозировать расширение каждодневной активности злоумышленников с использованием ИИ к середине 2024 года — как раз перед выборами в США и многих других странах»,— отмечают авторы исследования.
По мнению Кэтлин Карли, специалиста по применению компьютерных методов в социальных исследованиях Школы информационных технологий Университета Карнеги—Меллона, довольно опасным может быть использование генеративного ИИ в чат-ботах, которые и раньше применялись в кампаниях политической дезинформации.
«Сам по себе генеративный ИИ не более опасен, чем боты. Опасны боты в сочетании с генеративным ИИ»,— считает эксперт. С помощью таких технологий комментарии ботов будут больше похожи на высказывания людей.
Эксперты отмечают, что ИИ-инструменты делают возможность дезинформации более дешевой и доступной. «Социальные сети снизили стоимость распространения как информации, так и дезинформации. ИИ же снижает стоимость ее создания,— считает управляющий директор Центра исследований соцсетей и политики Нью-Йоркского университета Зив Сандерсон.— Теперь, если вы иностранный злонамеренный актор или участник небольшой кампании внутри страны, вы можете использовать эти технологии для создания мультимедиа-контента, который будет до некоторой степени привлекательным».
На прошлой неделе британский исследовательский центр Институт стратегического диалога (ISD) опубликовал собственное расследование о предположительно связанной с Китаем кампании под названием Spamouflage. Ее часть — распространение в соцсетях перед выборами в США сгенерированных ИИ политических изображениях. В данном случае речь не идет о дипфейках в строгом смысле, скорее, например, о таких картинках: Белый дом в трещинах или Джо Байден и Дональд Трамп, скрещивающие горящие копья, с подписями в духе «Гражданская война» или «Коллапс американской демократии».
Как отмечают аналитики ISD, эта агитация не направлена в поддержку какой-либо из сторон, хотя Джо Байден в ней обычно изображается более критически. Скорее она делает акцент на поляризации американского общества, а также таких проблемах, как рост числа бездомных, распространение огнестрельного оружия и т. д. По словам старшего аналитика ISD Элис Томас, в ней «американская демократия изображается как источник раздоров и слабости», как «склеротическая супердержава, находящаяся в смятении, неспособная решать свои внутренние проблемы и выступать лидером на международной арене».
Соцсети против дипфейков
На прошлой неделе во время Мюнхенской конференции по безопасности несколько крупных технологических корпораций подписали соглашение о совместной борьбе со злоупотреблениями в предвыборном использовании ИИ. Среди них Google, Amazon, Microsoft, Meta (признана экстремистской и запрещена в РФ), OpenAI, X. В частности, они договорились разрабатывать инструменты для борьбы с таким использованием ИИ, искать подобный контент на своих платформах и принимать меры по борьбе с его распространением, сотрудничать с учеными и гражданским обществом и т. д.
Генеральный директор компании OpenAI — разработчика генеративной модели ChatGPT — Сэм Альтман признал, что опасается возможного использования технологий его компании в предвыборной борьбе. Он отметил, что OpenAI работает над технологиями борьбы с этим и собирается внимательно следить за ситуацией.
Meta (признана экстремистской и запрещена в РФ) также уже заявляла о собственных мерах борьбы с таким контентом — в частности, она будет маркировать изображения и видео, предположительно созданные с использованием ИИ. Тем самым такие нормы добавляются к тем мерам по борьбе с дезинформацией и фейковыми новостями, которые принимались соцсетями после американских выборов 2016 и 2020 годов.
Правда, критики называют меры со стороны Meta (признана экстремистской и запрещена в РФ) недостаточными и непоследовательными. Тем более что, по некоторым данным, Meta (признана экстремистской и запрещена в РФ) во время масштабных сокращений в 2022 году уволила многих сотрудников, занимавшихся модерацией и безопасностью в связи с выборами. В еще большей степени за это критикуют X, которая после ее покупки миллиардером Илоном Маском ослабила нормы модерации и также уволила многих сотрудников.
По мнению эксперта в области взаимодействия соцсетей и политики Кэти Харбот, платформы устали от попыток решить проблемы, связанные с политическим контентом. Кроме того, у них нет ясного понимания, какими должны быть правила и наказания за их нарушение. По ее словам, многие в технологических компаниях считают, что им, насколько это возможно, стоит по минимуму вмешиваться в эту сферу.