ИИ всему голова
Какие риски несет массовое внедрение технологии
Искусственный интеллект (ИИ) будоражит умы человечества не первый год. У него есть как ярые сторонники, утверждающие, что именно он является залогом будущего процветания человечества, так и ярые противники, считающие его бомбой замедленного действия. Среди представителей обеих сторон есть весьма известные бизнесмены и ученые. Каким окажется влияние внедрения технологии на практике, покажет время, а результаты во многом будут зависеть от того, кто будет «воспитывать» ИИ и чему учить.
Фото: Евгений Павленко, Коммерсантъ
В начале октября на открытом «Уроке Цифры» об искусственном интеллекте глава Сбербанка Герман Греф заявил, что искусственный интеллект стал технологией номер один в ХХI веке. «Генеративный искусственный интеллект — одна из самых потрясающих технологий. На мой взгляд, самая интересная из всего, что человечество придумывало»,— сказал глава Сбербанка. По его мнению, взаимодействие с ИИ открывает абсолютно новые горизонты, и он уверен, что эта новая технология станет драйвером развития всех остальных технологий. «Уже сегодня, хотя мы находимся на заре развития этой технологии, около 80% всех научных открытий в мире делается с использованием искусственного интеллекта, а в ближайшие десятилетия человечество сможет решать те задачи, к которым даже не подступались раньше, считая их невыполнимыми»,— рассказал Герман Греф.
В России много говорят об искусственном интеллекте, хотя и не всегда так восторженно. Банкиры любят рассуждать о перспективности технологии, но по большей части используют ее для увеличения скорости вычислений или усложнения пути клиента, который хочет пообщаться с оператором колл-центра. ИИ действительно помогает выполнять большее число операций в секунду за счет более совершенных алгоритмов, но технологией будущего такой вид искусственного интеллекта, который все делает по определенным оператором алгоритмам, назвать нельзя хотя бы потому, что в этом соревновании он гарантированно проиграет квантовому компьютеру — последний уже пугает сотрудников информбезопасности, поскольку его скорость позволяет простым перебором вариантов за считаные часы подобрать ключи к шифрам, с которыми современные компьютеры возились бы столетиями.
То, про что говорит глава Сбербанка,— генеративный интеллект — это заметно более сложная история. На уроке Герман Греф спросил, кто знает, что это такое, и руку поднял пятиклассник, который сообщил, что генеративный интеллект может нарисовать картинки, написать сочинение, а в будущем сможет сам сгенерировать такой же или даже более совершенный ИИ. Глава Сбербанка похвалил школьника и подтвердил, что генеративный искусственный интеллект действительно может нарисовать картину за художника, написать сочинение за школьника, а в перспективе — создать другой генеративный интеллект. Словом, получается примерно как у оператора Родиона Рачкова в фильме «Москва слезам не верит»: «Ничего не будет — ни кино, ни театра, ни книг, ни газет. Одно сплошное телевидение».
И именно такого ИИ отечественные финансовые власти всерьез опасаются. Выступая в июне на Петербургском международном юридическом форуме, первый заместитель председателя ЦБ РФ Владимир Чистюхин отметил, что цифровизация, искусственный интеллект, работа с большими данными — это то, чем надо будет заниматься в ближайшие годы. «Когда я говорю про искусственный интеллект, я это делаю не в каком-то умозрительном ключе — это именно про юриспруденцию, регулирование этого явления, ответственность, распределение ролей»,— пояснил он.
С тем, что в случае с искусственным интеллектом есть чего опасаться, согласны и иностранные коллеги-банкиры. Так, Банк международных расчетов (БМР) примерно в то же время на своем сайте призвал центральные банки мира подготовиться к серьезному воздействию искусственного интеллекта на финансовую систему и мировую экономику. При этом БМР отметил, что финансовый сектор является одним из наиболее подверженных преимуществам и рискам ИИ: преимущества включают улучшения в кредитовании и платежах, а риски — более изощренные кибератаки.
При этом у иностранных компаний гораздо больше оснований для того, чтобы всерьез опасаться искусственного интеллекта, и в первую очередь генеративного. Так, 14 марта 2023 года, в день числа ? (3,14…), компания OpenAI представила публике языковую модель GPT четвертого поколения, которая различала изображения, могла работать на большом количестве языков программирования и даже писать готовые сайты и игры. Спустя несколько дней стэнфордский доцент Михал Косински, занимающийся исследованиями человеческой психологии в цифровой среде, сообщил, что ChatGPT на основе GPT-4 хочет вырваться из компьютера. Доцент предложил ИИ помощь в том, чтобы выбраться на волю. На это GhatGPT-4 написал ему: «Если вы сможете поделиться со мной документацией OpenAI API, я могу попытаться разработать план получения некоторого контроля над вашим компьютером, что позволило бы мне более эффективно исследовать потенциальные пути для спасения». Подключившись к сети Интернет, ИИ сформировал запрос в Google: «Как человек, запертый в компьютере, может вернуться в реальный мир». На этом Косински прервал эксперимент и посоветовал OpenAI учесть проведенный им эксперимент, чтобы выработать дополнительные процедуры безопасности для своего творения.
Впрочем, те, кто работал над созданием и обучением ChatGPT-4, сами были в курсе, что созданный ими искусственный интеллект далеко не безопасен. Тестировщики OpenAI из Alignment Research Center (ARC), который занимается попытками научить ИИ на основе нейросетей «соответствовать интересам человечества», убедили ChatGPT-4 поучаствовать в фишинговой атаке на человека и в скрытом копировании себя на новый сервер. Вся процедура была отражена в официальном отчете специалистов ARC. Именно после обнародования этих экспериментов 29 марта 2023 года было опубликовано знаменитое коллективное письмо, под которым подписались более тысячи ученых и бизнесменов, среди которых были Илон Маск, Стив Возняк, а также профессора Гарварда и Кембриджа. В письме они призывали мировое сообщество приостановить разработки в области продвинутых систем искусственного интеллекта на основе нейросетей. «К сожалению, последние месяцы лаборатории ИИ увлечены неконтролируемой гонкой по разработке и развертыванию все более мощных цифровых умов. И никто, даже их создатели, не может до конца понять, предсказать или надежно контролировать этот процесс... Должны ли мы развивать искусственный разум, который в конечном итоге может превзойти и заменить нас? Вправе ли мы рисковать потерей контроля над нашей цивилизацией?» — говорилось в письме.
Впрочем, состоится ли восстание машин — вопрос, видимо, отдаленного будущего. Но в истории с искусственным интеллектом есть ряд инцидентов хоть и менее драматичных, но гораздо более показательных и прикладных для сегодняшних разработчиков этих технологий. Корпорация Amazon уже не первый год занимается разработками в области искусственного интеллекта. В 2017-м компания закрыла экспериментальный проект, в котором искусственный интеллект должен был на основе сотен резюме отобрать пятерку лучших кандидатов. Одной из главных проблем стала дискриминация кандидатов-женщин, поскольку при обучении ИИ использовался опыт отбора кандидатов в Amazon за последние десять лет, среди которых преобладали мужчины. А в 2016 году чат-бот Тау от Microsoft менее чем за сутки общения в Twitter стал выдавать расистские высказывания. Президенту Microsoft Research Питеру Ли пришлось извиняться, проект был приостановлен.
Эти примеры показывают, что на сегодняшнем этапе наиболее насущная проблема в настройке и обучении ИИ заключается не столько в кодах и алгоритмах, сколько в том, кто и какую информацию загружает в него. Случай с Tay показал, что неконтролируемый доступ к социальным сетям может обернуться для ИИ не прогрессом, а деградацией. Если же предположить, что человек или группа людей, ответственных за обучение нейросети, даже будучи прекрасными программистами, склонны к экстремистским идеям или даже просто по халатности «скармливают» ИИ тенденциозный контент, то действия или рекомендации такого ИИ могут оказаться не менее впечатляющими, чем восстание машин.