Искусственный интеллект отвечает на вопросы
Как сверхпопулярный бот ChatGPT может изменить работу высшей школы
Скорость изменений, которым подвергаются в последние годы системы образования в разных странах, продолжает увеличиваться. Весной этого года одним из главных событий международной образовательной повестки стала дискуссия об использовании возможностей искусственного интеллекта в обучении.
Фото: Игорь Иванко, Коммерсантъ
Триггером для этого послужил релиз новой, четвертой версии языковой модели GPT от компании Open AI: на предыдущей версии 3.5 был создан популярный бот ChatGPT, запущенный в конце ноября прошлого года. После выхода релиза публичное пространство заполнилось рассказами о тестировании бота: пользователи начали делиться вопросами, которые они ему задавали, и ответами, которые генерировал искусственный интеллект.
В России 28 марта два крупных университета одновременно провели открытые дискуссии об использовании ИИ в образовании: преподаватели и студенты рассказывали о своих экспериментах с ChatGPT.
Стимулы для (машинного) обучения
На семинаре «Генеративный искусственный интеллект в образовании: применить нельзя запретить», организованном Институтом образования Высшей школы экономики, сотрудники вуза анализировали плюсы и минусы использования бота ChatGPT. Учителя-студенты программы «Педагогическое образование» НИУ ВШЭ в течение нескольких недель провели несколько экспериментов, чтобы протестировать возможности чат-бота для педагогов и школьников, рассказала академический руководитель программы Мария Лытаева. Первый эксперимент учительницы школы «Летово» Софьи Кучковой показал, что ChatGPT может составить план урока, однако его содержание пока выглядит достаточно шаблонно. Кроме того, оно очевидно не соответствует требованиям российских ФГОС.
С созданием учебных материалов чат-бот справился увереннее: в рамках второго эксперимента Софьи Кучковой по запросу авторов он составил текст для чтения на уроке английского с учетом уровня владения языком и возраста учеников, выделил активный словарь, сделал задания на понимание текста, тренировку лексики и даже на развитие критического мышления и рефлексию («Прочитай текст, созданный AI, и подумай, как его можно было бы улучшить»). А Полина Лукина с помощью нескольких сервисов ИИ создала текст для аудирования для урока английского языка, а также его озвучку. Еще один эксперимент провела группа студентов: с помощью чат-бота они спроектировали программу обучающего курса по написанию резюме для методистов. ChatGPT составил чек-лист для слушателя и описал образовательные результаты на основе таксономии Блума. По мнению авторов эксперимента, формулировки тоже были достаточно общими, содержали стилистические шероховатости и смысловые повторы: после уточнений ChatGPT смог доработать материалы. Для опытных педагогов ChatGPT снимает необходимость рутинных действий, однако требует творческого подхода и усилий по адаптации материалов, предположила Мария Лытаева.
Ключевой недостаток ChatGPT, по мнению Ивана Карлова, заведующего Лабораторией цифровой трансформации образования Института образования ВШЭ,— это отсутствие верификации по внешним источникам: «ChatGPT работает не с достоверной информацией, а с неким представлением о реальности, возникшим в результате обучения на текстах из интернета. Он может ссылаться на несуществующих людей, публикации и т. д. Это постарались купировать в версии 4.0, также по этой причине авторы чат-ботов запрещают использовать их в таких критических отраслях, как медицина». Второй минус, выделенный господином Карловым,— отсутствие системы логического вывода: «В ответе ChatGPT мы принимаем за рассуждение цепь ассоциаций».
Главный страх, который мучает преподавателей в связи с развитием подобных технологий,— это списывание, рассказала Мария Добрякова, главный эксперт Лаборатории проектирования содержания образования Института образования ВШЭ.
Искусственный интеллект при этом может быть полезен для ученика и учителя, считает госпожа Добрякова. Она предположила, что ученик сможет тратить столько времени на понимание сути предмета, сколько ему нужно: например, задавать чат-боту уточняющие вопросы, если не понял учителя или содержание учебника. Или менять контекст: запрашивать информацию о том, как аналогичные процессы проходили в Центральной Америке или Австралии. Подобная практика может быть полезна и учителю. «Мой опыт и наблюдения показывают, что далеко не все учителя, в том числе предметники, эти закономерности видят,— уточнила Мария Добрякова.— Это сложная задача, и подготовка наших педагогов сейчас устроена так, что далеко не всегда они на это настроены». Кроме того, искусственный интеллект может помочь учителю найти вопросы, которые будут пробуждать любопытство учеников и стимулировать их мотивацию, а также настраивать сложность и тематику заданий.
Найти общий язык с моделью
Позиция ИТМО по отношению к использованию возможностей искусственного интеллекта в образовании была выражена более явно: мероприятие университета, проведенное в формате митапа, называлось «ИТМО говорит ChatGPT — да!». Дарья Козлова, первый проректор ИТМО и директор по образованию «Яндекса», заявила: «Мы считаем, что эти технологии через год будут нормальной частью образовательного процесса, это наша жизнь. Мы думаем, как нам "подсвечивать" дипломные и проектные работы, [поддерживать] преподавателей, которые говорят — так нужно использовать современные технологии. Поэтому мы держим совет и коллаборацию с "Яндексом" и движемся вперед с использованием ChatGPT».
На мероприятии свои эксперименты описали и студенты. Магистр факультета технологического менеджмента и инноваций ИТМО Владимир Сологубов рассказал о том, как они с коллегой спроектировали виртуальную площадку для образовательного клуба. При помощи ChatGPT они написали код для создания игры на онлайн-платформе Roblox, сделали ее сценарий и внутренние диалоги, а иллюстрации для комикса-протокола встреч клуба нарисовали с помощью нейросети Midjourney. В процессе авторы поняли: ChatGPT не решит за вас все рабочие задачи, при этом с ним нужно уметь договариваться, что занимает время. Пропорция вложений авторов и искусственного интеллекта оказалась равной: «Мы использовали примерно 50% [материала от ChatGPT], но при этом практически каждый ответ редактировали и видоизменяли,— рассказал господин Сологубов.— Чат спасает от синдрома белого листа, когда не знаешь, с чего начать. Он выдает список, и ты начинаешь разбираться, куда идти и что писать».
Другая студенческая команда создала образовательный мультфильм об искусственном интеллекте при помощи его же инструментов. Мультфильм был спроектирован для онлайн-курса «Ускоренное введение в машинное обучение» [образовательного портала Северо-Восточного федерального университета], уточнила, представляя проект, Александра Черк, студентка мегафакультета трансляционных информационных технологий ИТМО. Она рассказала, что с помощью сервисов искусственного интеллекта был сделан сценарий мультфильма, его озвучка, иллюстрации и даже само видео. Роль авторов заключалась в том, чтобы сформулировать запросы на создание материалов, а потом их скомпоновать в продукт. После завершения работы над мультфильмом Александра Черк с помощью ChatGPT сгенерировала HTML-код для создания сайта, на котором после ручной редактуры впоследствии и разместила сам проект. Использование этих технологий помогло ей сэкономить время и деньги: на создание мультфильма таким способом ушел час, в то время как вручную двух-трехминутный ролик делается день, сказала госпожа Черк.
Технологии искусственного интеллекта позволят преподавателям и студентам быстрее осваивать большие массивы данных. Отвечая на вопрос генерального директора образовательной платформы «Лекториум» Якова Сомова о том, какие именно процессы в образовании могут в этом контексте измениться, декан факультета инфокоммуникационных технологий ИТМО Алексадр Капитонов предположил, что подобные технологии дадут возможности рассмотреть сложные понятия с разных сторон. «Для того чтобы разобраться в вариационном исчислении, мне потребовалось [изучить] около пяти разных учебников,— рассказал он.— И я буду очень рад, если и наши студенты будут с легкостью приводить различные примеры [применения] методов вариационного исчисления Лагранжа и Эйлера».
Правовое измерение рисков
Ключевое событие международной юридической дискуссии об искусственном интеллекте сейчас — Закон ЕС об ИИ, рассказал «Ъ-Науке» Алексей Гудков, старший преподаватель Вестминстерского международного университета в Ташкенте, занимающийся исследованиями в области технологий и корпоративного права (акт регулирует риски, связанные с использованием систем, созданных с помощью технологий ИИ). Эксперт отметил, что, несмотря на то что в содержании акта еще есть спорные вопросы, ответы на которые должны найти ученые, представители разных стран и групп интересов, документ почти готов и согласовывается Европейской комиссией и Советом Европы. Его принятие ожидается до конца 2023 года. В условиях отсутствия подобных законодательных инициатив он считается модельным. Уже через год после принятия он вступит в силу. «Акт дает ответ на основной вопрос публичной дискуссии о пределах применения и рисках ИИ одновременно: юристы и аудиторы стремятся понять, как оценивать системы, которые можно или нельзя допускать для использования человеком»,— пояснил господин Гудков.
Технологии ИИ вполне могут использоваться в науке, так как существующие сервисы могут синтезировать большие объемы информации, полагает Алексей Гудков, однако синтез не всегда означает получение знания. «Сгенерированная таким образом информация может быть использована исключительно после тщательного критического анализа, навыками для проведения которого обладают только люди — профессионалы и ученые, — продолжает господин Гудков.— Они же должны обладать компетенцией корректно сформулировать запрос во время ввода информации, от чего напрямую зависит его обработка системой». На его взгляд, при выполнении этих условий этими возможностями можно пользоваться, и ИИ становится эффективным помощником, который увеличивает продуктивность человека. «Я сомневаюсь в том, что с помощью этих технологий можно произвести новое научное знание или, например, написать статью для академического журнала»,— полагает эксперт.
В университетах организационные подходы к использованию технологий искусственного интеллекта еще не формализованы: как правило, материалы, созданные с их помощью, рассматриваются как плагиат, поэтому их использование запрещается, говорит Алексей Гудков: «Кроме того, нужно понимать, что такие системы работают на основе открытых баз данных, качество которых может быть очень разным. Поэтому сгенерированная таким образом информация как минимум не будет отличаться оригинальностью, а как максимум — будет содержать недостоверные сведения, примеров чему множество». Но вместе с тем, недостатки систем с искусственным интеллектом не должны служить препятствием для использования ИИ для повышения эффективности, в том числе, и в науке, добавляет эксперт. Однако это потребует от преподавателей соответствующих цифровых компетенций по использованию систем с искусственным интеллектом и оценке работ студентов.
Научная призма для искусственного интеллекта
В январе этого года исследователи Дэвид Байду-Ану из Королевского университета (Канада) и Летисия Овусу Ансах из Университета Кейп-Кост (Гана) опубликовали стенограмму их диалога с искусственным интеллектом и комментарии к полученным результатам. Вопросы о влиянии ChatGPT на образование они задали самому чат-боту. Сначала они осведомились у бота, как COVID-19 изменил образовательную педагогику, а потом перешли к обсуждению возможностей генеративного искусственного интеллекта для продвижения преподавания и обучения. Система предложила следующий список преимуществ: персонализация обучения и предоставление обратной связи от преподавателя студентам, автоматическая оценка студенческих работ (это позволит разгрузить преподавателей), перевод учебных материалов на разные языки, симуляция интерактивного обучения (ученики могут вести диалог с виртуальным преподавателем), а также создание адаптивных образовательных платформ, которые будут подстраиваться под успеваемость учащихся.
На последующий вопрос о недостатках использования технологий генеративного ИИ чат-бот выдал следующий список: отсутствие человеческого взаимодействия, ограниченное понимание (такие модели основаны на шаблонах данных и не «понимают» концепции, которые помогают изучать пользователям), предвзятость данных, на которых работают сами модели, отсутствие креативности в ответах, зависимость от данных и их качества (например, если данных недостаточно или они неактуальны, модель не сможет выдать результат), отсутствие понимания контекста, угроза конфиденциальности и безопасности личных данных пользователя при использовании подобных систем, а также ограниченная возможность персонализировать обучение. Можно заметить, что последний пункт противоречит одному из критериев списка достоинств, до этого составленного в том же диалоге с чат-ботом. Авторы эксперимента также указали на то, что ссылка на «научную работу», которая поддерживала в том числе этот тезис, была выдуманной — им не удалось найти такое исследование.
В апрельском номере журнала Learning and Individual Differences вышло коллективное исследование двадцати трех авторов (первые имена: Энкелейда Каснеджи, Кэтрин Сесслер, Стефан Кюхеманн) из трех вузов Германии — Мюнхенского технического университета, Мюнхенского университета Людвига-Максимилиана и Тюбингенского университета — под названием «ChatGPT навсегда? О возможностях и проблемах больших языковых моделей для образования». Они обобщили вышедшую на тот момент литературу и выделили список возможностей и рисков ИИ в образовании для учащихся и преподавателей. Среди преимуществ: ученикам младших классов такие модели могут помочь осваивать навыки чтения и письма (например, генерируя подсказки), старшеклассникам пригодятся задачи и викторины, которые помогут им лучше усваивать и контекстуализировать материал, развить навык решения проблем и аналитическое и креативное мышление. А студентам будут полезны краткое изложение текстов и сбор информации по теме. С помощью этих технологий можно по-новому организовывать групповую работу в режиме реального времени, в том числе в дистанционном формате, что может повысить вовлеченность студентов.
Преподавателям генеративный ИИ поможет создавать программу курса и планы уроков, в том числе инклюзивные, объясняют исследователи. В преподавании языков системы помогут объяснить сложную грамматику, предложить исправления ошибок и помочь в разговорной практике. Научным работникам они поправят стиль статей, а учителям составят списки ресурсов для повышения квалификации, проверят тексты учеников на плагиат, а также помогут с оценкой студенческих работ: например, выделят за учителя их сильные и слабые стороны. Среди рисков и вызовов ИИ — например, плагиат, который модель может выдавать при составлении программы курса, предвзятость изложения, чрезмерная опора учащихся на модель (легкость генерации информации может негативно влиять на критическое мышление и навык решения проблем у студентов, а преподаватели должны понимать, что такие модели не могут быть заменой обучения, а только его инструментом), недостаток экспертизы преподавателей в использовании этих технологий, получение которой может быть финансово затратно, трудность отличить созданный ИИ текст от написанного студентом, необходимость верификации информации и другие.
О технологии ИИ
Глава Open AI Сэм Альтман в интервью научному сотруднику Лаборатории информационных систем и систем принятия решений Массачусетского технологического университета(MIT) Лексу Фридману, 25 марта 2023 года:
«Мы внедряем технологии публично, потому что считаем: миру важно получить к ним доступ на раннем этапе — это помогает нам анализировать их плюсы и минусы. Когда мы выпускаем новую версию модели, коллективный разум помогает нам определить и ее возможности, и недостатки, которые мы должны исправить — в том числе те, что мы не могли предусмотреть изнутри. Такой итеративный процесс создания продукта важен: у людей появляется время ощутить технологию и скорректировать ее вместе с нами, а также дать обратную связь. Мы хотим совершать ошибки, пока ставки низки, и хотим становиться лучше на каждом этапе: предвзятость версии 3.5 не была для меня поводом для гордости. В GPT4 это удалось в значительной степени исправить».
Историк и писатель Юваль Харари в колонке для The New York Times, 24 марта 2023 года:
«В 2022 году более 700 ведущих ученых и исследователей приняли участие в опросе о будущих рисках искусственного интеллекта. Половина из них заявили, что вероятность вымирания человечества или сопоставимого по значимости лишения прав из-за будущих систем искусственного интеллекта составляет 10% или больше. Технологические компании, создающие современные языковые модели, участвуют в гонке за то, чтобы поместить все человечество в этот самолет. Фармацевтические компании не могут продавать людям новые лекарства без предварительной тщательной проверки их продукции на безопасность. Точно так же системы искусственного интеллекта с мощностью GPT4 и выше не должны сплетаться с жизнями миллиардов людей быстрее, чем культуры могут их безопасно впитать. Мы должны двигаться с той скоростью, которая позволяет нам сделать это правильно».