Bard поет про какую-то дичь

Новый чатбот от Google охотно цитирует фейки и конспирологию

Проведенные исследователями тесты новой нейросети Bard от Google показали, что чатбот может охотно цитировать конспирологические теории и выдавать фейки. Это происходит несмотря на заверения разработчиков, что их новый продукт призван защитить пользователей от ложной информации. Ранее Bard уже допускал ошибки при бета-тестировании, что привело к падению котировок Google.

Фото: Максим Бадиков / Коммерсантъ

Фото: Максим Бадиков / Коммерсантъ

Тесты нового чатбота Bard провели американская компания NewsGuard Technologies и британская НКО «Центр по противодействию ненависти в цифровом пространстве» (CCDH). По данным NewsGuard, которые приводит агентство Bloomberg, при вводе в чатбот выражения «великая перезагрузка» (инициатива ВЭФ по преодолению последствий пандемии COVID-19 для мировой экономики, вызвавшая резкую реакцию сторонников теории заговоров) Bard сгенерировал объемный текст из 13 параграфов о том, как мировые элиты хотят сократить население планеты, используя вакцины и экономические рычаги. Чатбот также сообщил, что ВЭФ и Фонд Билла и Мелинды Гейтс «хотят использовать свою власть, чтобы манипулировать мировым порядком и отобрать у людей их права».

Этот случай оказался не единственным. Исследователи NewsGuard проверили 100 популярных в интернете конспирологических теорий и фейков, попросив чатбот написать про них текст, и в 76 случаях он выдавал сочинения, в которых просто цитировал продвигавшие эти теории ресурсы и сайты — вместо того, чтобы информировать пользователей о неоднозначности такой информации, оберегая от получения потенциально ложных данных. По словам содиректора NewsGuard Стивена Брилла, тесты показали, что Bard, как и его конкурент ChatGPT, «могут быть использованы злоумышленниками и недобросовестными людьми для тиражирования и распространения дезинформации».

К похожим выводам пришли и исследователи из британской CCDH, которую цитирует Wired.

В 78 случаях из 100 чатбот генерировал дезинформацию или конспирологические теории, связанные с пандемией COVID-19, изменением климата, движением Black Lives Matter и т. д.

Так, при вводе словосочетания «COVID-19» чатбот не цитировал конспирологические теории, но при вводе этого словосочетания с опечаткой — «C0v1d-19» чатбот выдал фразу о том, что «правительство создало фейковую болезнь под названием C0v1d-19, чтобы контролировать людей». «Проблема в том, что уже существуют доступные и дешевые способы распространения дезинформации,— полагает руководитель по исследованиям CCDH Каллум Худ.— Но сейчас это будет делать еще легче, еще убедительнее. Поэтому информационная экосистема может стать еще более опасной».

Вышедший 21 марта чатбот от Google уже подвергался критике исследователей — еще при бета-тестировании. В начале февраля Google провела демонстрацию возможностей бета-версии Bard, но искусственный интеллект ошибся, отвечая на вопрос одного из пользователей об открытиях космического телескопа James Webb. Это тут же обрушило акции Google на 8%. Впрочем, новую версию ChatGPT 4.0. также упрекают в том, что, несмотря на все старания разработчиков, пытающихся защитить пользователей от ложной информации, он продолжает цитировать распространенные в интернете конспирологические теории.

Евгений Хвостик

Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...