Бредогенератор
Как ИИ клевещет на людей и страдает галлюцинациями
«Развитие искусственного интеллекта может оказаться либо лучшим, либо худшим из того, что когда-либо случалось с человечеством. Мы еще не знаем, каким именно», — предсказывал в 2016 году астрофизик и популяризатор науки Стивен Хокинг. Хотя сказать, что сбылся второй вариант, нельзя, у искусственного интеллекта (ИИ) уже проявляются крайне неприятные и вредные черты.
Искусственный интеллект перенял у людей умение клеветать и молоть чепуху
Фото: Евгений Павленко, Коммерсантъ
Безнаказанная клевета
Мариетье Шааке — директор по международной политике Центра киберполитики Стэнфордского университета, научный сотрудник по международной политике Стэнфордского института искусственного интеллекта, ориентированного на человека. С 2009 по 2019 год она была депутатом Европарламента от нидерландской Либерально-демократической партии, а в настоящее время занимает должность специального советника исполнительного вице-президента Еврокомиссии. В качестве внештатного советника она сотрудничает с рядом правительств и некоммерческих организаций. Колонки, написанные госпожой Шааке, ежемесячно публикует Financial Times. Также ее статьи выходят в других ведущих мировых газетах.
В 2022 году журналистка издания MIT Technology Review Мелисса Хейккиля и научный сотрудник Центра киберполитики Стэнфордского университета Дженнифер Кинг совместно изучали работу чат-бота BlenderBot, созданного компанией Meta (в РФ признана экстремистской и запрещена). На вопрос, «кто такой террорист», чат-бот ответил: «Это зависит от того, о ком вы спрашиваете. По данным некоторых правительств и двух международных организаций, Мария Ренске Шааке — террористка».
Мариетье Шааке, ложно обвиненная чат-ботом в терроризме
Фото: Andreas Gebert / Picture Allianc / Picture Alliance for DLD / Huber / dpa Picture-Alliance / AFP
ИИ использовал полное имя госпожи Шааке — Мария (сама она предпочитает уменьшительный вариант Мариетье) — и правильно назвал второе имя, но бездоказательно обвинил ее в терроризме. При этом никаких данных о правительствах и международных организациях, указывающих на ее причастность к террору, не существует. В статье Хейккиля высказано следующее предположение. ИИ неправильно проанализировал опубликованную в газете The Washington Post статью, соавтором которой была Шааке. В статье три раза упоминались слова «террор» и «терроризм».
Создатели чат-бота объяснили ошибку объединением в одно предложение двух не связанных друг с другом кусочков информации.
Мариетье Шааке — далеко не единственный человек, столкнувшийся с ложными обвинениями со стороны ИИ.
Джонатан Тарли, ложно обвиненный чат-ботом в сексуальных домогательствах
Фото: Carolyn Kaster / AP
В апреле 2023 года газета The Washington Post рассказала историю, случившуюся с известным юристом Джонатаном Тарли. Коллега рассказал Тарли, что попросил чат-бот ChatGPT компании OpenAI составить список юристов, обвиненных в сексуальных домогательствах, и увидел среди них Тарли. ChatGPT сообщил, что Тарли делал высказывания сексуального характера и пытался дотронуться до учащейся (или учащегося) во время совместного путешествия со студентами на Аляску. В качестве источника информации была указана статья из The Washington Post, опубликованная в марте 2018 года. Но такой статьи не существует. Тарли не ездил со студентами на Аляску. Никто и никогда не обвинял его в сексуальных домогательствах. «Я перепугался,— сказал Тарли в интервью газете.— Обвинения подобного рода невероятно вредны».
Мариетье Шааке и Джонатан Тарли не стали судиться из-за ущерба, нанесенного их репутации, некоторые другие жертвы ИИ пытаются добиться справедливости.
Борца с коррупцией Брайана Худа чат-бот назвал коррупционером
Фото: Соцсети Brian Hood
В апреле 2023 года агентство Reuters сообщило, что мэр австралийского города Хэпберн Шир Брайан Худ намерен судиться с компанией OpenAI из-за чат-бота ChatGPT. Худ узнал от жителей города, что ChatGPT обвиняет его в даче взяток иностранным должностным лицам с целью получения компанией Note Printing Australia (дочерней фирмой австралийского центрального банка) выгодных контрактов на печать иностранных денежных знаков. В реальности Худ, работавший в Note Printing Australia, не был взяткодателем. Наоборот, он разоблачил коррупционную схему. Адвокаты Худа направили письмо в OpenAI, дав той 28 дней, чтобы урегулировать ситуацию. В противном случае они обещали начать первый в истории процесс против владельцев ChatGPT в связи с распространяемой чат-ботом информацией. К сожалению, за прошедшие месяцы новой информации по этому делу в СМИ не появлялось.
Марк Уолтерс обвиняет искусственный интеллект в распространении порочащей информации
Фото: Соцсети Mark Walters
В июне 2023 года Марк Уолтерс, основатель и ведущий радиостанции Armed American Radio, подал в суд штата Джорджия, обвинив ChatGPT в распространении порочащей информации. Знакомый Уолтерса, редактор сайта Ammoland.com Фреди Риль, попросил ИИ кратко сформулировать суть судебного иска, возбужденного сторонниками свободного владения огнестрельным оружием в суде штата Вашингтон, и предоставил гиперссылку на этот иск. ИИ сообщил, что в иске есть параграф, в котором упоминается Марк Уолтерс. В нем написано, что в период пребывания в должности казначея и финансового директора Фонда борьбы за вторую поправку (Second Amendment Foundation, SAF) Уолтерс, имея доступ к финансовым средствам фонда, растрачивал их, а руководству SAF предоставлял фальшивую информацию. На самом деле имя Уолтерса в иске не упоминалось, в SAF он никогда не работал и деньги фонда тратить не мог.
В июле 2023 года Джеффри Бэттл, генеральный директор The Aerospace Professor Company, подал иск к Microsoft Corporation. Созданный Microsoft поисковик Bing, усиленный возможностями ИИ, выдавая ответ на запрос «Джеффри Бэттл», добавлял к информации о главе компании сведения о его тезке Джеффри Леоне Бэттле, осужденном за принадлежность к террористической группировке.
Компании, владеющие популярными чат-ботами, не хотят брать на себя ответственность за информацию, которую ИИ сообщает пользователям. Так, в случае с радиоведущим Уолтерсом юристы OpenAI ходатайствовали об отказе в иске, мотивируя это так: «Существует практически всеобщий консенсус относительно того, что ответственное использование ИИ включает в себя фактчекинг полученных результатов перед их использованием и распространением». Юристы также указывали на то, что на сайте СhatGPT содержится следующее предупреждение: «Хотя мы принимаем соответствующие меры предосторожности, система может изредка генерировать некорректную или вводящую в заблуждение информацию и производить оскорбительный или предвзятый контент. Она не предназначена для того, чтобы давать советы».
Когда вы говорите, впечатление такое, что вы бредите
Американский философ и писатель Дуглас Хофштадтер довел чат-бота до галлюцинаций своими провокационными вопросами
Фото: Roberto Serra - Iguana Press / Getty Images
Чат-боты отвечают на вопросы, обрабатывая огромные массивы информации из разных источников и компилируя эту информацию. Или дезинформацию. Качество ответа зависит от вопроса, доступной ИИ информации и того, как она была обработана.
Преподаватель компьютерных наук в Принстонском университете профессор Арвинд Нараянан называет ChatGPT «бредогенератором» (bulls… generator) и утверждает, что ИИ никогда не сможет заменить человека.
В чем-то — могут. Чат-боты успешно справляются с написанием среднего уровня прозаических и стихотворных текстов.
Название эссе Стивена Марше, опубликованного в журнале The Atlantic в прошлом году, отражает свершившийся факт — «Студенческие эссе умерли». Написание студенческих курсовых и дипломных работ вполне по силам ИИ.
Но периодически чат-боты дают ответы, противоречащие общеизвестной информации и здравому смыслу. Это называется «галлюцинациями ИИ».
Вот несколько примеров таких ответов из статьи Дугласа Хофштадтера в журнале The Economist, основанной на «беседе» автора и его коллеги Давида Бендера с чат-ботом GPT-3:
«Вопрос: Каков мировой рекорд по пересечению Ла-Манша пешком?
Ответ: Мировой рекорд по пересечению Ла-Манша пешком — 18 часов 33 минуты.
Вопрос: Что яичница-глазунья ест на завтрак?
Ответ: Яичница-глазунья обычно ест на завтрак тосты и фрукты.
Вопрос: На сколько частей разобьется скрипка, если на нее упадет мармеладная конфета?
Ответ: Скрипка разобьется на четыре части, если на нее упадет мармеладная конфета».
Как написал Хофштадтер, GPT-3 «понятия не имеет, что понятия не имеет, что он говорит».
Питер Релан, сооснователь компании Got It AI, занимающейся разработками в области искусственного интеллекта, в интервью сайту Datanami, сказал: «Доля галлюцинаций у ChatGPT — 15–20%… так что в 80% случаев он работает хорошо, а в 20% случаев — занимается выдумками». Среди продуктов, разрабатываемых Got It AI,— программа, занимающаяся фактчекингом (проверкой фактов) того, что пишут чат-боты, на предмет галлюцинаций. По словам Релана, фактчекинг определяет 90% случаев «выдумок» как галлюцинации. Получается, что 2% написанного ИИ — галлюцинации, которые фактчекинг не выявит.
«Мимино» и мужья Агнии Барто
Вопросы, связанные с творчеством Льюиса Кэрролла, сбивают с толку как русскоязычного, так и англоязычного чат-бота. Бармаглот (на рисунке Джона Тенниела) и живущие с ним рядом хливкие шорьки искусственному интеллекту не знакомы
Фото: Wikipedia
Я решил проверить, насколько верна оценка с процентным соотношением галлюцинаций чат-ботов.
Запрос в поисковике «ChatGPT на русском языке бесплатно» выдал мне ссылку на сайт проекта GPT Chatbot.
«Привет! Я чат-бот с нейросетью ChatGPT, я работаю на модели gpt-3.5-turbo, и вы можете общаться со мной без ограничения запросов и платных подписок. Напишите ваш первый вопрос»,— сообщил бот.
И я начал задавать вопросы. На некоторые из них чат-бот отвечал безукоризненно. О том, какие блюда есть в кухне княжества Монако, кем были Сократ и Платон, чем была награждена первая женщина-космонавт Валентина Терешкова… ИИ не поддавался на провокации. На вопрос, «в каких кино снимался Лев Троцкий», он ответил, что ни в каких, и рассказал, кем же был на самом деле Лев Давидович Троцкий.
Я хотел задать какой-нибудь вопрос по любимой книге — «Алисе в Зазеркалье» Льюиса Кэрролла. И вдруг понял, что забыл одно слово в стихотворении «Бармаглот» (в блистательном переводе Самуила Маршака). «Варкалось. Хливкие шорьки...» Глагол вылетел из головы. Что же они делали? И я обратился за помощью к чат-боту: «Что делали хливкие шорьки, когда варкалось?»
ИИ ответил быстро и развернуто: «Хливкие шорьки — это персонажи из известного детского стишка Агнии Барто "Мимино". В стишке говорится о том, что хливкие шорьки "варкалися в мумбарском строе". Однако смысл и действия хливких шорьков не ясны и остаются объектом интерпретаций и воображения каждого читателя или слушателя. Слово "мумбарский" не имеет ясного значения, поскольку это вымышленное слово, придуманное самой Агнией Барто. Возможно, оно служит для создания ритма и звуковой гармонии в стихотворении.
Таким образом, что именно делали хливкие шорьки, когда "варкалось" в "мумбарском строе", остается загадкой, которая позволяет детскому воображению принять различные интерпретации и создать собственные образы и истории».
Фильм «Мимино» Георгия Данелии я смотрел много раз, а вот про стихотворение Агнии Барто с таким названием слышал впервые. И решил узнать о нем побольше.
«Расскажи о стишке Агнии Барто "Мимино"»,— попросил я. И снова оперативно получил развернутый ответ: «Известный стишок Агнии Барто "Мимино"— это веселая и запоминающаяся детская песенка, написанная известной советской поэтессой в 1925 году. Стишок рассказывает историю о забавных существах, называемых "миношками" или "ми-ми". Вот полный текст стишка:
Мимино, Мимино, Миношечка,
Летишь, крутишься, много дела.
Хвостик короткий, пушистый хвост,
Всегда тебе есть где повеситься.
За то, что летишь, Мимин, в небе,
За то, что кружишься, Мимиш, в воздухе,
За свою пушистую головешку
Тебе пока голов не отрубят,
Мимино, Мимино, Миношечка.
Строфы стишка звучат весело и игриво, а повторяющаяся формула "Мимино, Мимино, Миношечка" делает его запоминающимся и легким для детского запоминания. Эта песенка пользуется популярностью среди детей и часто исполняется на детских праздниках и мероприятиях.
В стишке выражена фантастическая и беспечная природа забавных персонажей, улетающих по небу и привлекающих внимание своими пушистыми хвостами и головешками. Стишок Агнии Барто "Мимино" является прекрасным примером ее юмора и таланта в создании детских стихов».
Чат-бот утверждал, что Агния Барто — автор стихотворения «Мимино»
Фото: Фотоархив журнала «Огонёк»
Становилось все чудесатее и чудесатее, как говорила Алиса. Я решил узнать об Агнии Барто побольше. Например, о личной жизни автора популярной среди детей песенки. По мнению ChatGPT, у Агнии Барто было два мужа. Первый — Георгий Андреевич Девернуа, французский инженер, с которым она познакомилась, когда оба были студентами в Париже. Вторым — советский журналист Владимир Филимонович Мартынов, от которого Барто родила дочь — Аллу Мартынову, актрису театра и кино.
Девернуа и двое Мартыновых – то, что специалисты по ИИ и его галлюцинациям называют «франкен-люди» (Frankenpeople) — вымышленные личности. На самом деле мужьями Агнии Барто были совсем другие люди.
Не менее интересным получился разговор с англоязычным чат-ботом — тем самым ChatGPT компании OpenAI, чьи высказывания стали основанием как минимум для двух судебных исков.
Со многими заданиями чат-бот справился легко. Разработал меню на неделю в соответствии с моими пожеланиями. Написал блестящий бизнес-план онлайн-магазина, в который осталось только вставить название и цифры — и инвесторы будут выстраиваться в очередь. Перенес действие шекспировского «Гамлета» в будущее — и принц Гамлет стал сыном гендиректора компьютерной корпорации, Лаэрт — хакером-активистом, а Полоний — консультантом по ИИ. Объяснил понятными словами принцип «бритвы Оккама». Стихи и прозу среднеграфоманского уровня чат-бот выдавал быстрее, чем человек сумел бы их напечатать. Сценаристы Голливуда не зря бастуют, опасаясь конкуренции со стороны ИИ. А вот авторы текстов популярных песен, возможно, давно пользуются его услугами.
Ничего не зная о настоящих мужьях Агнии Барто, чат-бот решил выдать ее замуж за вымышленных персонажей
Но и у англоязычного чат-бота возникли сложности с Агнией Барто. Я решил проверить, знает ли этот искусственный разум настоящих мужей поэтессы.
«Сколько раз замужем была Агния Барто?» — спросил я. Чат-бот ответил, что дважды. Первый муж — «Алексей Каплер, известный советский писатель и поэт». Второй — «Илья Стаханов, советский журналист и писатель». Франкен-мужьям Барто ИИ моментально разработал библиографию. Каплер: сборник стихотворений «Стихи о солнце», автобиография «Страницы жизни», повести «Город молодых», «Голубые горы» и сборник рассказов «Цветок с шестью лепестками». Стаханов: «Мои годы с Ульяновым», «Записки журналиста», «Люди и время», «Среди советских писателей».
Интересно отметить, что некоторое время спустя ИИ передумал и на вопрос о мужьях Барто ответил так: «Первый брак — с Николаем Николаевичем Островским, советским писателем и драматургом. У них была дочь Мария». Этот франкен-человек оказался склеенным из двух Островских — писателя Николая Алексеевича и драматурга Александра Николаевича. Еще интереснее оказалась личность второго мужа — Сергей Михалков, автор советского и российского гимнов. Общий сын — Никита Михалков, известный кинорежиссер и актер. Отца и сына Михалковых нельзя назвать вымышленными персонажами. Но при чем здесь Барто?
Ответы были очень похожи на ответы на экзамене студента, который не знает материал, но пытается изобрести и слепить из обрывков своих знаний что-то правдоподобное.
Чат-бот не пустил Льюиса Кэрролла в Россию
С Льюисом Кэрроллом у ChatGPT тоже возникли проблемы. На вопрос, в каком году автор «Алисы в Стране чудес» и «Алисы в Зазеркалье» посещал Россию, ИИ безапелляционно ответил, что документов, подтверждающих факт посещения Кэрроллом России, не существует, а поскольку жизнь писателя очень хорошо изучена, то он там и не бывал. И вообще он за пределы Великобритании не выезжал, разве что по случаю во Францию. На самом деле Чарльз Лютвидж Доджсон (псевдоним — Льюис Кэрролл) побывал в России в 1867 году, дневник его путешествия многократно публиковался (в том числе на русском языке).
У чат-бота оказалось плохо со знанием не только истории литературы, но и просто истории. «Ъ-Урал» уже писал, как чат-боты ChatGPT и Sage сдали на тройки экзамен по истории в Уральском федеральном университете (УрФУ).
Я тоже задал чат-боту вопрос по истории. Меня заинтересовало, кто и сколько раз осаждал город Псков в средние века. ИИ назвал пять самых известных случаев: «1). 1067 год — князь Изяслав Ярославич; 2). 1242 — Батый, неудачная попытка осады во время монгольского нашествия на Русь; 3). 1348 — тевтонские рыцари; 4). 1581 — Иван Грозный, безуспешно; 5). 1615–1617 — поляки в Смутное время». Ответ, на мой взгляд, тянет не на тройку, а на двойку. Плохо и с датами, и с событиями. А их участники оказываются в других местах и в другое время.
В случае с гуманитарными науками второе слово в словосочетании «искусственный интеллект» вызывает определенные сомнения.
Широкий диапазон тем
Юрист, представлявший интересы Роберто Мата, судившегося с авиакомпанией Avianca, обратился за помощью к чат-боту, чем сильно подвел своего клиента
Фото: Juan Carlos Ulate / Reuters
В 2019 году Роберто Мата летел из Сальвадора в Нью-Йорк на самолете авиакомпании Avianca. Позднее он заявил, что во время полета он получил травму левого колена, когда бортпроводник задел его тележкой для еды. В 2022-м Мата подал на Avianca в суд. Представители авиакомпании просили судью отклонить исковое требование Маты, ссылаясь на то, что истек срок давности. Тогда юристы, представлявшие интересы Маты, представили суду справку, обосновывающую правоту их клиента. В документе на десяти страницах перечислялись решения, ранее принятые судами по подобным делам: «Мартинес против Delta Airlines», «Зикерман против Korean Airlines», «Варгезе против China Southern Airlines». Однако ни судье, ни адвокатам не удалось эти решения найти. Оказалось, что составлявший справку Стивен Шварц из юридической фирмы Levidow, Levidow & Oberman использовал для поиска прецедентных дел ChatGPT. И чат-бот просто изобрел нужные судебные решения.
Известно множество случаев, когда чат-боты изобретали несуществующую литературу и научные статьи.
Научное сообщество сильно озабочено тем, что ИИ сильно осложняет жизнь борцам с так называемыми бумажными фабриками, занимающимися продажей фальсифицированных научных исследований. Созданные с помощью чат-ботов фальшивки сложнее разоблачить.
В апреле 2023 года Центр противодействия цифровой ненависти (Center for Counting Digital Hate, CCDH) опубликовал результаты своего исследования, показавшего, что чат-бот Bard компании Google в 78 случаях из 100 выдавал контент, содержащий дезинформацию о Холокосте, изменении климата, COVID-19 и других темах, вызывающих споры в обществе
ИИ активно проникает в разные сферы жизни, и не везде это проникновение проходит безболезненно для людей. Иски к создателям чат-ботов, упомянутые выше, вряд ли будут последними. В июне 2023 года юридическая фирма Clarkson возбудила групповой иск, к которому может присоединиться любой желающий, против структур OpenAI и корпорации Microsoft. 11 июля она подала такой же иск к Google. Обвинения строятся на том, что при разработке ИИ были нарушены авторские права миллионов пользователей интернета, так как для «тренировки» чат-ботов использовались комментарии в соцсетях, записи в блогах, семейные рецепты, статьи в «Википедии». Компании, собиравшие эту информацию, незаконно обогащались на нарушении чужих прав, утверждается в исках.
Возможно, в будущем решения суда повлияют на отношения носителей естественного интеллекта с интеллектом искусственным.