ИИ нацбезопасности угроза
Системы искусственного интеллекта получат допуск к госданным
Модели искусственного интеллекта, которые обучили на государственных данных, будут проверяться на предмет угрозы национальной безопасности и обороны страны. Для этого до 2028 года планируется создать и внедрить первую версию ПО, которое будет отвечать за такие проверки. Участники рынка подтверждают, что обучение ИИ на госданных требует усиленных мер безопасности. Это необходимо, так как ошибки могут привести к неверным рекомендациям при принятии стратегических государственных решений.
Правительство планирует проверять системы, которые реализуют технологию искусственного интеллекта (ИИ), «на наличие угроз безопасности государства и обороны страны», говорится в утвержденном в кабмине паспорте федпроекта «Цифровое госуправление» (есть у “Ъ”), который войдет в нацпроект «Экономика данных».
Для этого в 2025–2026 годах планируется провести научно-исследовательскую разработку принципов анализа моделей ИИ, обученных на госданных, а в 2027–2028 годах — создать и внедрить первую версию программы, которая будет анализировать такие модели.
В документе говорится, что на это до 2030 года планируется выделить 8,1 млрд руб. из федерального бюджета, а за реализацию мероприятия отвечает ФСБ. Ожидается, что к 2030 году пять систем ИИ получат подтверждение «допустимости безопасного использования». Из паспорта проекта следует, что это необходимо для использования таких систем в экономике данных.
В Минцифры не ответили на вопрос “Ъ”, о каких именно государственных данных идет речь. Тем не менее в министерстве сказали, что планируют «поддерживать развитие ИИ, в том числе в рамках нового нацпроекта», добавив, что он находится на «финальном этапе согласования». До утверждения нацпроекта говорить о планах, предусмотренных федпроектом, преждевременно, напомнили “Ъ” в аппарате профильного вице-премьера Дмитрия Григоренко. В ФСБ не ответили “Ъ”.
Сейчас у коммерческих компаний нет доступа к государственным данным.
Ранее Дмитрий Григоренко поручил Минцифры совместно с Ассоциацией больших данных (АБД, объединяет «Яндекс», VK, «Ростелеком» и др.) проработать порядок предоставления бизнесу доступа к госданным — информации о паспортах, трудовой деятельности граждан, номерах телефонов и т. д. (см. “Ъ” от 9 октября).
В АБД добавляют, что пока что речь идет только о данных, которые необходимы бизнесу для оказания услуг. Доступность же данных для обучения ИИ «может стать следующим шагом по расширению доступа бизнеса к госданным», говорят в АБД.
Государственные данные позволяют создавать модели ИИ, которые лучше учитывают особенности и потребности конкретной страны или региона, что дает возможность разрабатывать более точные и релевантные решения, объясняет руководитель группы консалтинга MTS AI Дмитрий Черноус.
Тем не менее обучение ИИ на госданных должно производиться с усиленной безопасностью, а также к продукту такого обучения должны иметь доступ только авторизованные пользователи, добавляет гендиректор группы компаний ST IT Антон Аверьянов.
Сейчас используемые модели ИИ «получают подтверждения безопасности путем тестирования и применения различных сценариев, необходимых для выявления слабых мест», говорит заместитель директора Центра компетенций НТИ по большим данным МГУ Тимофей Воронин. «Также с 1 января будет использоваться ГОСТ, закрепляющий требования к защите данных при применении ИИ»,— добавляет он. «Оценка угроз безопасности — это обязательный элемент при работе с данными, которые имеют хоть какое-то отношение к персональным или иным защищаемым категориям. Госданные относятся к защищаемым категориям, и если системы ИИ обучаются на них, то такую оценку проводить необходимо»,— считает собеседник “Ъ” на IT-рынке.
«Один из самых главных рисков — утечки данных, которые можно "деобезличить". Другая проблема — это недостоверность предсказаний. Ошибки в обучении модели или целенаправленные манипуляции могут привести к искаженным рекомендациям для госуправления или стратегических решений. А если модель содержит уязвимости, то она может стать входной точкой для атак на государственные системы»,— говорит специалист по машинному обучению «Инфосистемы Джет» Надежда Гаврикова.