«Если роботы позволят нам меньше работать — это будет чудесно»

Каковы реальные возможности и ограничения AI

Юрий Визильтер, научный директор Института искусственного интеллекта МФТИ, директор по направлению «Искусственный интеллект и техническое зрение» ГосНИИАС, рассказал «Ъ-Науке» о творчестве в науке, экономике без людей и реальных возможностях искусственного интеллекта.

Фото: Getty Images

Фото: Getty Images

— Юрий Валентинович, как вы думаете, искусственный интеллект заменит живого, теплого научного работника?

— Это сложный вопрос. Во-первых, не все научные работники теплые. Во-вторых, в научной работе действительно много рутинных задач. Я полагаю, что они в значительной степени могут быть автоматизированы довольно быстро, с той же скоростью, с какой может автоматизироваться любой рутинный офисный труд. Если говорить про специфические научные задачи, а именно генерацию новых идей, порождение каких-то концепций, сравнение различных исследовательских подходов, то эти процессы автоматизировать пока не так просто, хотя в научном плане такие подходы сегодня уже исследуются.

— По вашим оценкам, эта рутинная часть, которую можно автоматизировать, какой процент составляет? Какова доля креатива в деятельности современного ученого?

— Если анализировать деятельность типичного научного сотрудника, то распределение ремесленных и творческих задач будет примерно 70% на 30%. Есть, конечно же, и те, у кого ситуация обратная: креативные задачи преобладают над рутинными. Обычно это редкие выдающиеся таланты, для которых окружающие создают соответствующие условия.

Я как раз очень надеюсь, что развитие искусственного интеллекта позволит за счет появления персональных помощников ученых создать такую ситуацию, когда для всех соотношение будет даже не 70% на 30%, а 90% на 10% в пользу творчества.

— Говоря об ИИ в науке, нельзя не вспомнить казус со статьей, полностью написанной ИИ. Расскажите, как устроена система защиты от генеративных статей в научных журналах.

— В этом году был уже не казус, а настоящая очень хорошая научная работа AI Scientist (то есть «ИИ-ученый»), в которой были собраны различные технологии на базе больших языковых моделей, что позволило все этапы написания научной статьи — генерацию новой идеи, планирование и проведение экспериментов, анализ результатов, написание и даже рецензирование статьи — так или иначе автоматизировать. Конечно, важно понимать, что с помощью нейронных сетей нельзя пока сгенерировать глобальное супероткрытие, но можно найти способ эффективнее выполнять какие-то задачи. 90% статей по машинному обучению посвящены небольшой доработке существующих моделей или способов их обучения, а не революционным открытиям и новым подходам.

Они устроены по принципу one-step-forward, то есть берется известная схема из опубликованной кем-то статьи, делается некоторая ее модификация и проверяется, удалось ли получить хотя бы небольшую прибавку в метриках качества на публичном тестовом наборе данных. Именно такие статьи и генерировались в работе AI Scientist. Из этого совершенно не следует, что технологии ИИ действительно готовы заменить ученых во всех их функциях. А вот возможность создания в ближайшее время очень полезных ИИ-помощников ученых для всех этапов научной работы здесь как раз просматривается.

Тем не менее многие научные журналы сегодня действительно предупреждают авторов, что статьи, созданные генеративными моделями, приниматься не будут. Возможно, при этом уже используются автоматические тесты проверки на вероятность того, что статья автоматически сгенерирована. Такие тесты существуют, и они пока достаточно хорошо отличают авторство человека от авторства языковой модели. Но мне лично кажется, что такие запреты будут напоминать борьбу с допингом в спорте — много скандалов и мало результатов.

На свой вкус я бы, напротив, объявил специальный прием статей, написанных с использованием генеративного ИИ — конечно, с обязательной маркировкой таких работ и четким указанием роли ИИ и роли авторов-людей. Бегуны не должны соревноваться с мотоциклистами. Но исключить научные работы, в создании которых помогал ИИ,— все равно что исключить автотранспорт из списка допущенных законом средств перемещения. Сегодня за работы, сделанные с помощью ИИ, дают Нобелевские премии. Завтра научные работы, в которых не использовался в той или иной форме ИИ, придется еще поискать.

— Но у нейросети могут быть галлюцинации. Как верифицируют результаты, полученные с помощью ИИ?

— Галлюцинации у нейросети возможны, и, более того, они, на мой взгляд, неустранимы. Такова природа интеллекта — и естественного, и искусственного. У людей ведь тоже бывают иллюзии и галлюцинации, ошибки восприятия и ошибки рассуждений, ложные воспоминания. Например, именно эффекты зрительных иллюзий очень четко проясняют общие механизмы зрения. Невозможно оставить «объективное» человеческое зрение и убрать «субьективные» зрительные иллюзии. Пассивно человек воспринимает лишь видимое поле, аналог набора пикселей в компьютере. В наборах пикселей нет ни лиц, ни машин, ни неба. Все это — результат активной интерпретации видимого поля зрительной системой человека («глаз плюс мозг»). Но в результате такой интерпретации возникают и «истинные» объекты, которые можно потрогать, и зрительные иллюзии. Примерно так это происходит и с текстовыми галлюцинациями в больших языковых моделях, про которые сейчас все говорят, когда вместе с истинной проверяемой информацией нейросеть выдает и некие «фантазии» — факты и утверждения, выглядящие правдоподобно, но не соответствующие действительности. С галлюцинациями можно бороться, их можно учитывать, можно их уменьшать, но сделать вариант таких моделей, которые бы вообще никогда не галлюцинировали или в принципе были несмещенными (то есть «объективными», непредвзятыми),— нельзя.

Если исключить полностью галлюцинации, предвзятость и прочие нежелательные эффекты, мы получим модель, способную только механически воспроизводить те примеры, на которых ее обучили. Но поскольку модели мы хотим иметь генеративные, а не просто «вспоминающие», значит, они должны обладать некоторой креативностью. Чем больше креативность, тем больше будет всегда галлюцинаций и предвзятости. Это абсолютно одинаково и для человека, и для искусственного интеллекта. Поэтому, конечно, опасность есть, модели нужно контролировать. Точно так же, как и людей, которые могут ошибаться, приукрашивать или слегка фантазировать. Есть специальные методы контроля, их надо использовать, и, я думаю, это направление также будет продолжать активно развиваться.

— Получается, рождается еще какая-то новая индустрия, какие-то новые научные исследования, которые будут строиться именно на верификации?

— Верификация касается достаточно простой задачи проверки фактов, ссылок или цитат в тексте (так называемый факт-чекинг). В общем случае нужно говорить о всех возможных аспектах обеспечения желательного и корректного поведения модели ИИ. Это действительно важное направление, которое возникло задолго до появления больших языковых моделей. Сверточные нейронные сети, которые были первым поколением глубоких сетей, также имели уязвимости, и мы до сих пор сталкиваемся с проблемой атак на такие нейронные сети. Например, изменив всего несколько пикселей на изображении, можно добиться ошибки распознавания этого изображения нейросетью.

Область борьбы с различными проблемами и искажениями, которые имеются в обработке данных при помощи глубоких нейронных сетей, существует уже как минимум десять лет, и выработан целый ряд методов контроля поведения нейросетевых моделей. Для больших языковых моделей в этом направлении ведется много исследований, создан ряд практических методов, которые все сегодня начинают использовать: как уменьшать галлюцинации, как уменьшать предвзятость, как избегать рисков того, что будут даны какие-то опасные ответы. Есть целая технология воспитания нейронных сетей.

— Расскажите о наиболее распространенных методах.

— Самый известный — обучение с подкреплением с человеком в обратной связи (RLHF). Этот метод предназначен для того, чтобы увеличить полезность ответов, уменьшить их потенциальную опасность, сделать форму ответов более приятной для пользователя. Модель генерирует ответы, человек смотрит на них и либо поправляет, предлагает более правильные ответы, либо критикует, говорит, в чем ошибка. Модель дообучается на новых вводных от человека, снова генерирует ответы, человек снова критикует. Так, в цикле проб и ошибок «генерация — модерация — дообучение — новая генерация» поведение модели постепенно улучшается. Из этого метода, первоначально созданного авторами ChatGPT, возникло целое направление работы с языковыми моделями. Теперь оно называется alignment, то есть «выравнивание» или «регулировка» ответов нейронных сетей. И этим процессом воспитания во многих случаях должны заниматься уже не специалисты по машинному обучению, а специалисты в предметных областях. В случае общего поведения, общего знания — гуманитарии. Такая работа относится уже не только к машинному обучению, но, возможно, и к сфере образования.

— То есть ИИ должен будет пройти курс по этике для того, чтобы работать с людьми?

— Этический минимум — это некое обязательное ядро, базовые настройки, которые всегда должны учитываться при ответе на любой запрос. Сегодня, когда языковой модели задается запрос, то помимо, собственно, того целевого вопроса, который мы хотим ей задать, к нему всегда добавляется некоторый контекст (преамбула, дополнительная информация). В этом контексте мы можем написать все, что считаем нужным сообщить языковой модели о том, какой ответ, и в более широком смысле, какое поведение от нее ожидается. Один из вариантов — поместить туда так называемую конституцию. Например, в известной работе коллег из DeepMind, которые делали физического робота, управляемого большой языковой моделью, конституция робота начиналась с трех законов робототехники Айзека Азимова, после чего излагалось еще несколько страниц правил и ограничений.

Но какую бы сложную конституцию для роботов мы ни написали, всегда останется вероятность, что искусственный интеллект все равно сможет совершать какие-то нежелательные действия. Поэтому здесь идет динамический процесс выявления проблем, угроз и поиска способов борьбы с ними. Вряд ли в этой области найдется универсальное решение, чтобы раз и навсегда закрыть проблему контроля поведения и воспитания искусственного интеллекта. 

— Чем принципиально отличается мышление человека и мышление искусственного интеллекта? На основании чего принимаются решения?

— Есть принципиальная разница в механизме. У человека интеллектуальная деятельность всегда сопровождается сознанием, эмоциями, желаниями и волевыми усилиями. Человеческий интеллект неотделим от человеческой личности. А функционирование искусственного интеллекта — это работа некоторой вычислительной машины, которая старается правдоподобно воспроизвести способы и результаты работы человеческого интеллекта в аналогичных ситуациях. При этом задачи подробной имитации человеческого мозга или детального процесса человеческого мышления пока еще очень далеки от решения. У искусственного интеллекта, на сегодня по крайней мере, нет сознания и самосознания. У ИИ нет личности. Он ничего не хочет, ни о чем не мечтает, никого не любит и никого не ненавидит. ИИ — это просто программа в машине.

— Почему тогда нам кажется, что он ведет себя как человек, чего-то хочет, может быть опасен?

— Мы в целом склонны анимизировать мир. Как первобытный человек видел и слышал проявления чего-то живого и разумного во всех явлениях природы, так и мы тем более готовы считать одушевленным все, что имитирует действия человека. На самом деле, как мы уже обсуждали, сегодня в ИИ личности нет. Когда говорят про сильный искусственный интеллект, имеется в виду просто универсальность решения задач. Слабый искусственный интеллект решает частные задачи: отдельно — компьютерное зрение, отдельно — работа с естественным языком, отдельно — управление роботом. А сильный искусственный интеллект — это общие способности, которые позволяют решать задачи широкого спектра. Но за этим не стоит личность, не стоит сознание.

Что собой представляет генеративная языковая модель? Это очень простая вещь. Она, конечно, сложно реализована, но сама по себе идея очень простая. Это модель, которая выучила вероятность того, как порождается следующий токен (следующее слово) в последовательности токенов. А последовательность эта может с равным успехом содержать текст научной или журнальной статьи, химические или математические формулы, компьютерную программу или ряд команд, управляющих роботом. Отсюда и универсальность. При этом нельзя сказать, что за процессом искусственной генерации этих символьных последовательностей действительно скрывается некоторое «мышление». Однако как раз за счет выученных больших данных поведение и рассуждения человека могут вполне успешно имитироваться такими моделями, что мы и наблюдаем и чему склонны верить до степени «одушевления».

— Получается, что искусственный интеллект — это такой студент, который вызубрил, но не совсем понял материал, а то, что знает, не может применить на практике?

— В отличие от студента искусственный интеллект способен запомнить гораздо больший объем примеров, он даже способен их обобщить. А человек принципиально по-другому обучается: он просто не может хранить и реально использовать такой объем примеров. Научить человека на гигантском количестве примеров, например фрагментов программного кода, ничего не объяснив ему о языке и приемах программирования, невозможно. Но именно так сегодня и учатся большие языковые модели. ИИ показывают большое количество примеров кода, и он учится программировать. В этом смысле не только способы мышления, но и способы обучения у человека и ИИ пока принципиально различаются.

— Искусственный интеллект уже сейчас — активный участник экономических процессов. Как эта технология изменит рынок труда? Как отразится в целом на производительности, в частности, исследовательских команд?

— Очень хорошо отразится на производительности в науке. Я думаю, что мы увидим существенный всплеск новых научных знаний, которые будут получены при помощи искусственного интеллекта. Не в области ИИ, а при помощи инструментов ИИ. Это уже сейчас происходит. В химии по синтезу новых веществ, в биологии очень много новых результатов. Последние Нобелевские премии были за AlphaFold — как раз за модели ИИ, которые помогли в расшифровке структуры белков. Практически во всех направлениях искусственный интеллект способен увеличить эффективность работы исследователя. Многие математики сейчас всерьез думают о том, увидим ли мы в скором времени полностью автоматических ученых, которые уйдут в отрыв так, что мы уже не сможем понимать те результаты, которые они получают. В области физики, химии, биологии, инженерии и вообще всех практических наук о реальном мире — я в это очень не верю, потому что нужны эксперименты. Все новые знания будут получаться через эксперименты, а эксперименты в реальном мире, даже если их делают роботы, требуют существенного времени и существенных затрат материалов и ресурсов, которые не восполняются так быстро и волшебно, как в виртуальном мире, где существуют и обучаются модели ИИ.

Если говорить об экономике, то есть немалый шанс, что по крайней мере офисные профессии на горизонте 10–15 лет очень сильно будут автоматизированы. Но мне кажется, что, возможно, это вовсе не зло, а благо. Хотя, конечно, не все разделяют такую точку зрения. Мое поколение родилось в стране рабочих и крестьян. Нам с детства внушали, что самое главное для человека — это труд. Однако почему-то веками люди завидовали именно «праздным» классам. Не потому что это классы, которые целый день лежат и плюют в потолок. А потом что это люди, у которых нет необходимости тратить свое жизненное время на то, чтобы обеспечивать себе пропитание, и поэтому они могут заниматься тем, чем хотят, что им самим действительно нравится. Интересные занятия, содержательная и осмысленная жизнь вовсе не равны труду за деньги. Поэтому те, кто имеет творческие потребности, будут все равно заниматься творчеством. Совершенно неважно, делают это компьютеры лучше или нет. Вот вам простой пример: в 1997 году компьютер Deep Blue обыграл чемпиона мира по шахматам. Сегодня все знают, что даже гроссмейстера может обыграть довольно рядовая шахматная программа, и поэтому запрещено на шахматных турнирах пользоваться телефонами и планшетами. Несмотря на это, люди по-прежнему играют в шахматы, проводят турниры, обсуждают шахматы и любят их.

Если нейросети будут писать стихи, романы, музыку, создавать фильмы или картины не хуже и даже лучше людей, люди не перестанут этим заниматься. И люди не перестанут общаться друг с другом из-за чат-ботов. Потому что люди делают все это для себя. Просто им, возможно, не надо будет сидеть в офисах или в других местах, где они сегодня работают, столько времени, сколько они сейчас там сидят. И мне кажется, это только плюс. Бояться того, что всех нас заменят роботы, не надо. Если машины избавят нас от обязательной трудовой повинности, позволят работать меньше — кому и сколько захочется, — это будет чудесно! Кроме того, даже если люди когда-то не будут нужны экономике в качестве производителей, они все равно останутся ей нужны в качестве потребителей. ИИ и роботы ничего не хотят — хотят, выбирают, покупают и пользуются люди. В этой функции нас не заменить. Впрочем, это, вероятно, уже предмет для совсем другого разговора, и не со мной, а с кем-то из наших экономистов.

Многое из того, что мы привыкли считать фантастикой, в том числе в ИИ и вокруг ИИ,— наше возможное и довольно близкое будущее. Вопрос: захотим ли мы этими возможностями воспользоваться и используем ли их во благо, для людей? Но это уже вопрос не к технологиям, это вопрос к нам, людям.

Подготовлено при поддержке МФТИ

Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...