Бот-фронт

С конца марта "Живой журнал" регулярно оказывался недоступен пользователям из-за непрерывных DDos-атак — миллионов ложных запросов, посылаемых так называемыми ботами. Однако при нынешнем уровне развития сетевых роботов подобные диверсии выглядят архаичными. Сегодня для манипулирования общественным мнением в сеть постоянно выпускаются тысячи ботов, которые уже способны общаться почти без участия человека.

АЛЕКСЕЙ БОЯРСКИЙ, МАКСИМ МАКАРЕНКОВ

Согласно футуристической и вместе с тем вполне реалистичной теории Андрея Мирошниченко, автора книги "Когда умрут газеты", роль обычных СМИ в жизни общества отныне будет неуклонно уменьшаться. Им на смену придут так называемые медиа 3.0 — онлайн-ресурсы, в значительной степени создаваемые самими читателями, пишущими посты и комментарии. Влиятельность такого СМИ, а также направление формируемого им общественного мнения будет определяться количеством активных пользователей и содержанием выдаваемых ими реплик. Вполне логично, что на этом новом поле битвы за умы появятся и новые солдаты: по прогнозам, заинтересованные структуры выпустят во всемирную сеть тысячи, а то и миллионы роботов-болтунов, маскирующихся под живых пользователей. Похожая судьба ожидает социальные сети — грань между соцсетями и новыми онлайн-медиа исчезает уже сейчас.

Допотопные терминаторы

На самом деле ничего принципиально нового нас не ждет: боты появились в интернете уже давно. Наиболее легко распознаваемы боты-спамеры, засоряющие рекламными постами форумы или рассылающие соответствующие сообщения в соцсетях со специально созданных аккаунтов. Чуть более сложно устроены роботы, задача которых — создать иллюзию внимания пользователей. "Как только появилось такое понятие, как рейтинг обсуждения темы, например поста в ЖЖ или ролика в YouTube, сразу же появились и методы его подъема,— рассказывает руководитель ООО "Социальные медиа" Алексей Гончаренко.— На примитивном уроне это выглядит так: специальная программа автоматически регистрирует сотни аккаунтов, "пользователи" которых периодически заходят на нужную ветку обсуждения и оставляют фразы, почерпнутые из специальной библиотеки. В итоге тема становится популярной и начинает привлекать уже и живых пользователей". Более сложные виртуалы френдят друг друга и живых пользователей, а также могут комментировать чужие ответы и отвечать на вопросы случайными фразами. Яркий пример — блог Алексея Навального. Чтобы проверить слухи о том, что он раскручивается при помощи ботов, корреспонденты "Денег" стали заходить на страницы пользователей, оставляющих комментарии в его дневнике. Многие на первый взгляд живые жэжэшки оказались забиты перепостами интернет-мусора, а иные были просто девственно чистыми, без единого авторского поста. Мы обратились за комментарием к эксперту Алексею Гончаренко. "Блог Навального основательно подчищен — видно, что забанили ботов, которые были запущены как раз его врагами,— делится своими наблюдениями Алексей.— Тем не менее я вижу, что дневники многих дружественных "комментаторов" Навального состоят исключительно из перепостов его блога". "Администратор системы в состоянии вычислить бота по вполне понятным косвенным признакам,— рассказывает разработчик веб-проектов Алексей Немиро.— Например, мы на Kbyte.Ru под особый контроль берем пользователей с одинаковыми IP, а также пользователей, пытающихся массово дружить с другими. Также у каждого пользователя есть счетчик, который показывает его активность. Многократное превышение среднестатистических показателей — подозрительный критерий. Но никаких действий до нарушения пользователем закона я как администратор никогда не предпринимаю. Просто беру на заметку, и не более того". Последнее замечание весьма четко отражает ситуацию — соцсети и прочие ресурсы заинтересованы в количестве пользователей, пусть даже и ботов, из-за рейтинга. Банят, как правило, только злостных спамеров. Никакой серьезной борьбы с ботами до последнего времени не велось. По признанию владельцев большинства форумов и соцсетей, на стадии раскрутки ресурса они сами запускали виртуалов для создания иллюзии массовости.

Пентагон запоздал

Совсем недавно американское военное ведомство анонсировало разработку системы внедрения виртуальных личностей в соцсети и прочие ресурсы для манипуляции дискуссиями с целью уводить разговоры от опасных тем и продвигать собственные идеи и сценарии. Согласно официальной концепции, американские боты будут функционировать пока только в азиатском регионе — морочить голову пользователям, говорящим на четырех языках: арабском, фарси, урду и пушту. "Уверен, что американские спецслужбы пользуются подобными технологиями уже давно,— комментирует генеральный директор компании "Ашманов и партнеры" Игорь Ашманов.— А как еще раскачивались "твиттерные революции"? Мне кажется, там постов от виртуалов было больше, чем от настоящих пользователей". "Откровения" Пентагона вызвали улыбку и у руководителя информационного агентства "Росфинком" Константина Прохорцева: "Анонс американского военного ведомства можно расценить как факт признания того, что уже давно существует, либо того, что это есть у всех остальных спецслужб, а только у самого Пентагона пока не было. Я сам лично сталкивался с американскими русскоязычными ботами еще в 2003 году — они были запущены на наш проект IraqWar.ru, освещавший вторжение в Ирак. Тогда они выглядели еще весьма примитивными и вычислялись большинством пользователей. Думаю, просто к началу той военной кампании технологии еще только тестировались, и вначале боты были брошены в бой недоработанными". Сейчас, согласно тому же заявлению Пентагона, планируется создание не просто ботов-репликантов, а специально созданных троллей, частично управляемых живым человеком. Предполагается, что отличить таких терминаторов от настоящих пользователей будет уже невозможно. "Создать абсолютно автономную виртуальную личность, которая будет действовать в сети без постоянной коррекции и при этом полностью мимикрировать под настоящего пользователя, невозможно,— утверждает Игорь Ашманов.— Инфы (виртуальные персонажи, способные общаться с посетителями сайта на естественном языке.— "Деньги"), разрабатываемые нашей компанией, например, могут поддерживать достаточно длинные диалоги, но выявить такого бота легко, люди быстро почувствуют подвох. Если же речь идет о технологии, когда действия ботов частично направляются человеком, а все их реплики хотя бы просто просматриваются перед публикацией, то здесь можно получить сравнительно качественных троллей. Однако тут возникают вполне естественные ограничения: один человек при самой оптимальной организации автоматизированной системы в состоянии управлять десятками, но не сотнями виртуалов". С другой стороны, как рассказал Ашманов, в частности для эффективного манипулирования в рунете, необходимо всего лишь порядка 5 тыс. виртуалов. "Для этого понадобится около сотни операторов, каждый из которых будет непосредственно управлять пятью десятками ботов,— рассказывает Игорь Ашманов.— Но так как один человек не в состоянии играть пятьдесят совершенно непохожих жизней, есть риск, что боты одного оператора и вести себя будут очень похоже. Чтобы этого не произошло, нужна более сложная иерархическая система управления: идеологи, разрабатывающие стратегию, мастера, задающие сценарии ботам и т. д. Но это еще человек двадцать".

Даже если последний живой юзер уйдет из соцсетей, общение не прекратится: роботы будут болтать друг с другом

Фото: Reuters

Давай-давай, ботай!

Первое, что приходит в голову после осознания подобных перспектив,— кричать караул и призывать к борьбе с терминаторами. Однако, как выяснилось, борьба с ботами мало кому интересна. "Вряд ли появление ботов отвратит от соцсетей живых пользователей,— заявляет технический директор компании Teralabs Антон Пальцев.— Это вполне может стать интересным, если боты будут достаточно интеллектуальны или хорошо управляемы. Существует очень много одиноких людей, которым не хватает общения. И им все равно, с кем говорить в соцсети".

Однако системы идентификации ботов будут развиваться. "Некоторое время назад создателей соцсетей интересовало только одно — количество пользователей, а боты они или нет, это второй вопрос,— рассказывает замдиректора Российской ассоциации электронных коммуникаций Сергей Гребенников.— Но теперь на "странные" аккаунты обратили внимание — это связано с повышенным интересом правоохранительных органов к интернету". В прошлом месяце Роскомнадзор объявил конкурс на создание автоматизированной системы контроля над онлайн-СМИ, которая должна в круглосуточном режиме осуществлять мониторинг и выявлять материалы, содержащие среди прочего призывы к экстремизму. И вот здесь помимо задачи найти и наказать автора поста мониторинг преследует и другую цель — оценить долю постов ботов в общем информационном потоке, чтобы получить представление об истинном общественном мнении. Ведь, как заметил автор научно-технического блога dxdt.ru Александр Венедюхин, глобальная задача у создателей ботов, преследующих, допустим, политические цели, не обмануть сотню рядовых пользователей сети, а подвести к определенным решениям тех, кто пользуется услугами аналитических служб: "Важен инструмент обмана второго порядка, позволяющий создавать в соцсетях такой информационный фон, чтобы аналитики, занимающиеся исследованием мнений, делали нужные выводы". По наблюдениям экспертов, уже сейчас в соцсетях идут бои между ботами, принадлежащими противоборствующим группировкам, то есть боты зачастую "общаются" исключительно друг с другом. "Это краткосрочный эффект, связанный с молодостью отрасли, с тем, что в ней резвятся "шустрики",— комментирует коммерческий директор компании "Ашманов и партнеры" Александр Смирнов.— Отрасль ходит по первоначальным граблям, но со временем все очевидные возможные злоупотребления будут найдены, изучены и с ними научатся бороться". По мнению Антона Пальцева, очень скоро можно ожидать появления ботов, способных отличать живого пользователя от робота, дабы не тратить на него время. Что же касается вероятного появления в будущем биокомпьютеров, а также высокоинтеллектуальных самообучающихся роботов на основе искусственной нейронной сети, которых уже невозможно будет отличить от живого пользователя, то в действительности для захвата власти в интернете они и не нужны. Вы же, наверное, обратили внимание, что уже сегодня для управления общественным мнением в сети отдельно взятого государства нужно чуть больше роты живых бойцов. В масштабах всего мира, видимо, не больше дивизии. А может быть, эта дивизия уже существует? На самом деле создать ее не проблема — люди в сети сравнительно дешевы. Проще нанять десяток грамотных операторов с хорошо прописанными виртуалами и дать им качественное наведение на цель, чем плодить миллионы ботов. Если, конечно, речь идет о серьезной операции по управлению общественным мнением, а не о попытке создать иллюзию щенячьего восторга от очередной киноподелки. А вот система целенаведения — штука дорогостоящая. По мнению Александра Смирнова, технологическое развитие в ближайшее время будет идти не в части реагирования, а именно по направлению совершенствования средств автоматического мониторинга и улучшения его качества.

Дайте жалобную книгу

Еще одна модная нынче сфера, в которой активно задействованы боты,— управление репутацией. Понимается этот термин очень широко и имеет массу витиеватых и загадочных синонимов, например "гашение негатива", "управление отзывами". Реальность, стоящая за ними, однако, довольно прозаична. По мере распространения интернета люди обнаруживали, что высказывать свое негодование по поводу некачественного обслуживания или бракованной продукции можно на тематическом форуме или в блоге популярного сетевого персонажа. По принципу: хоть моральное удовлетворение получу, а люди пусть знают. Зачастую получалось, что представители компаний узнавали о проблеме вместе с потенциальными покупателями, когда сообщения о том, что такой-то телефон — го...но, наводняли все популярные форумы. Интернет стал играть роль общественной книги жалоб и службы техподдержки в одном флаконе. Разумеется, появление черного пиара не заставило себя ждать. В связи с этим возникла необходимость отслеживать и грамотно реагировать на подобные негативные отзывы. Поначалу, как это часто бывает, проблемы решали с помощью энтузиастов или путем волевого решения: "Блог есть? Значит, будешь отвечать пользователям". Для небольших компаний или частных лиц такой подход срабатывает. Когда дело касается известных персон и международных брендов, ситуация принципиально другая, поскольку здесь возникает необходимость обрабатывать гигантские объемы информации. "Если это международный деятель или транснациональная корпорация и надо мониторить много стран-языков, на это уходит сотни тысяч, а то и миллионы долларов в год. Цифры, конечно, ориентировочные. Но это только часть процесса. Для собственно управления репутацией надо строить службу реагирования на эти сообщения. Встраивать эту службу в бизнес-процессы внутри компании. Необходимо, если угодно, построение социальной CRM (Customer Relationship Management System — "система управления взаимодействием с клиентами".— "Деньги"), параллельной традиционной",— говорит Александр Смирнов.

Пока в России подобных социальных CRM фактически нет, хотя крупные компании активно интересуются возможностями такого метода реагирования. "Правильно организованная социальная CRM позволит реагировать быстро и адресно. В реальности это позволит предоставить близкие к VIP стандарты обслуживания массовому клиенту. Поэтому думаю, что пионерами в построении таких систем будут либо сотовые операторы, либо банки",— считает Александр Смирнов.

Как я был девушкой

ОСНОВЫ БОТОТЕХНИКИ

Facebook на сегодня — самая дорогая и, очевидно, самая перспективная социальная сеть. Не зря же в декларации Пентагона именно она заняла первое место в списке потенциальных арен для американских виртуалов. На мою просьбу рассказать о том, как в Facebook борются с ботами, администрация сети ответила отказом, сославшись на секретность. Правда, опытные люди пояснили, что ничего иного ждать и не следовало: рассказать о методах борьбы — значит указать дыры в своей защите. И тогда я решил на собственном опыте проверить, насколько просто создать бота в Facebook.

Зарегистрировал аккаунт: Майя Перцева (красивая девушка имеет больше шансов на внимание мужчин), 1979 г. р., проживает в Москве, училась в МГУ, работает в USA, слушает музыку B. B. King, читает Stephen King... Потом зашел на какой-то американский сайт--базу резюме и позаимствовал фото первой попавшейся симпатичной девушки (вероятность, что ее узнают в России, близка к нулю). Вся процедура заняла десять минут. Дальше нужно было создать хотя бы для видимости список друзей. Как выяснилось, в Facebook это проще простого — через 30 минут меня зафрендили десять человек! Технология элементарна — высылаешь приглашение кому-то из самых популярных персонажей (такие зачастую автоматически френдят всех подряд). А потом рассылаешь приглашения его френдам, они видят, что у вас уже есть один общий друг, и принимают приглашение о дружбе. А дальше Facebook начинает подсказывать, кого подцепить больше шансов. Думаю, если бы я продолжил в том же духе, через сутки стал бы тысячником. Надо отдать должное защите соцсети — на каком-то этапе массовой рассылки приглашений доступ к этой функции мне временно перекрыли, правда, до первого подтверждения дружбы, реабилитировавшего меня в глазах системы. Самое смешное, что по мере накопления френдов и моя стена заполнилась сообщениями о том, кого я добавил в друзья, где что лайкнул и т. д. В итоге через 40 минут с момента регистрации у меня была вполне достойная страница среднестатистического малоактивного пользователя. Теперь можно было идти на страницу интересующего меня персонажа, являющегося так называемым центром мнений. Кинул пару реплик его друзьям, получил пару лайков и приглашение к дружбе. В итоге, когда я вступил в переписку с предметом моего интереса, то был уже почти свой. А дальше я решил смоделировать то, как бы вел себя настоящий бот: зашел на сайт iii.ru, где компания "Наносемантика" демонстрирует возможность своих инфов, и стал все реплики моих собеседников в Facebook переадресовывать инфам Ашманова, а их ответы выдавать в свои посты. В итоге мой виртуал говорил как обученный инф. Разговор удалось поддерживать довольно долго. А ведь это были первые попавшиеся виртуалы: один — заточенный под рассказ о самой "Наносемантике", другой — "девушка, болтающая про девичью жизнь". Кроме того, для чистоты эксперимента большую часть их реплик я вообще не редактировал. Получается, что обученный инф, да еще в режиме элементарной модерации, был бы неузнаваем! Учитывая, что даже в ручном режиме создание виртуала и управление им потребовало минимум времени и усилий, можно лишь догадываться о возможностях тех, кто делает это с помощью соответствующего программного обеспечения. Да, своего виртуала я уничтожил, надеюсь, американка, чье фото я позаимствовал, на меня не в обиде.

Алик Бурков

Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...