«ГОСТ является своевременной инициативой»
Профессор Оксана Елхова — о регулировании искусственного интеллекта в образовании
1 января 2025 года вступил в силу ГОСТ, регулирующий использование искусственного интеллекта в образовании. Доктор философских наук, руководитель магистерской программы «Философия искусственного интеллекта» Уфимского университета науки и технологий Оксана Елхова считает, что применение новых технологий требует тщательной регуляции и осмысленного подхода. Однако, полагает она, инициатива Федерального агентства по техническому регулированию и метрологии оставляет без внимания ряд аспектов.
Фото: Фото из личного архива
Фото: Фото из личного архива
Введение ГОСТа «Технологии искусственного интеллекта в образовании» представляет собой значимый шаг в регулировании сферы в научной деятельности. Однако его практическая реализация сопряжена с рядом неопределенностей.
Один из ключевых аспектов ГОСТа — управление рисками, связанными с качеством данных. Хотя в документе затрагивается этот вопрос, представленные положения носят общий характер и не содержат конкретных методов контроля. Остаются нерешенными такие вопросы, как контроль искажения информации при генерации научных текстов, предотвращение распространения недостоверных данных в публикациях и определение ответственности за ошибки, допущенные ИИ в научных исследованиях. Очевидна необходимость создания системы оценки качества автоматизированных научных публикаций, однако на данный момент такая система отсутствует.
С развитием искусственного интеллекта ошибки, возникающие уже на ранних этапах его внедрения, уже имеют серьезные последствия. Свидетельством тому является база данных AI Incident Database (база инцидентов, связанных с ИИ). Ресурс представляет собой централизованный каталог проблем, возникающих при использовании ИИ в реальных условиях. Если сбои происходят в таком масштабе на базовых уровнях внедрения технологии, можно предположить, что их влияние на научную деятельность, требующую высокой точности и достоверности данных, будет еще значительнее. Соответственно, расширение использования ИИ ведет к росту потенциальных рисков.
ГОСТ затрагивает вопросы этики, ссылаясь на Кодекс этики в сфере ИИ, однако не раскрывает конкретных вызовов и проблем. Например, неясно, как будет проверяться оригинальность текстов, созданных с применением ИИ. Сейчас система «Антиплагиат вуз» не допускает к защите выпускные квалификационные работы, содержащие сгенерированный текст. Кроме того, в рейтинговых научных журналах невозможна публикация материалов с пометкой «Внимание, документ подозрительный: в документе присутствует сгенерированный текст». Как это будет реализовываться в дальнейшем, пока непонятно. Эффективность нового стандарта покажет его практическое применение. Конечно, в будущем он будет уточняться и дорабатываться.
Внедрение искусственного интеллекта в научные исследования неизбежно приводит к значительным изменениям в работе ученых. Современные технологии уже играют ключевую роль в исследовательской деятельности, игнорировать этот процесс невозможно. Интеллектуальные системы способны значительно ускорить сбор данных, анализ литературы и оформление научных публикаций, что повышает продуктивность исследований и снижает трудозатраты на выполнение рутинных задач. Вместе с тем использование ИИ потребует от ученых новых компетенций: им необходимо будет разбираться в принципах работы алгоритмов, критически оценивать результаты и учитывать возможные ограничения технологий. Кроме того, доступность интеллектуальных инструментов может привести к значительному росту числа научных публикаций, что, в свою очередь, усилит конкуренцию за высокие рейтинги и цитируемость, усложняя процесс объективной оценки вклада ученых в развитие науки.
Как именно интеграция ИИ повлияет на развитие науки, покажет время. Но уже сейчас очевидно: этот процесс требует осмысленного подхода, тщательной регуляции и постоянного обсуждения. В этом контексте рассматриваемый ГОСТ является своевременной инициативой, направленной на формирование стандартов.