ИИ нацбезопасности угроза

Системы искусственного интеллекта получат допуск к госданным

Модели искусственного интеллекта, которые обучили на государственных данных, будут проверяться на предмет угрозы национальной безопасности и обороны страны. Для этого до 2028 года планируется создать и внедрить первую версию ПО, которое будет отвечать за такие проверки. Участники рынка подтверждают, что обучение ИИ на госданных требует усиленных мер безопасности. Это необходимо, так как ошибки могут привести к неверным рекомендациям при принятии стратегических государственных решений.

Фото: Евгений Павленко, Коммерсантъ

Фото: Евгений Павленко, Коммерсантъ

Правительство планирует проверять системы, которые реализуют технологию искусственного интеллекта (ИИ), «на наличие угроз безопасности государства и обороны страны», говорится в утвержденном в кабмине паспорте федпроекта «Цифровое госуправление» (есть у “Ъ”), который войдет в нацпроект «Экономика данных».

Для этого в 2025–2026 годах планируется провести научно-исследовательскую разработку принципов анализа моделей ИИ, обученных на госданных, а в 2027–2028 годах — создать и внедрить первую версию программы, которая будет анализировать такие модели.

В документе говорится, что на это до 2030 года планируется выделить 8,1 млрд руб. из федерального бюджета, а за реализацию мероприятия отвечает ФСБ. Ожидается, что к 2030 году пять систем ИИ получат подтверждение «допустимости безопасного использования». Из паспорта проекта следует, что это необходимо для использования таких систем в экономике данных.

В Минцифры не ответили на вопрос “Ъ”, о каких именно государственных данных идет речь. Тем не менее в министерстве сказали, что планируют «поддерживать развитие ИИ, в том числе в рамках нового нацпроекта», добавив, что он находится на «финальном этапе согласования». До утверждения нацпроекта говорить о планах, предусмотренных федпроектом, преждевременно, напомнили “Ъ” в аппарате профильного вице-премьера Дмитрия Григоренко. В ФСБ не ответили “Ъ”.

Сейчас у коммерческих компаний нет доступа к государственным данным.

Ранее Дмитрий Григоренко поручил Минцифры совместно с Ассоциацией больших данных (АБД, объединяет «Яндекс», VK, «Ростелеком» и др.) проработать порядок предоставления бизнесу доступа к госданным — информации о паспортах, трудовой деятельности граждан, номерах телефонов и т. д. (см. “Ъ” от 9 октября).

В АБД добавляют, что пока что речь идет только о данных, которые необходимы бизнесу для оказания услуг. Доступность же данных для обучения ИИ «может стать следующим шагом по расширению доступа бизнеса к госданным», говорят в АБД.

Государственные данные позволяют создавать модели ИИ, которые лучше учитывают особенности и потребности конкретной страны или региона, что дает возможность разрабатывать более точные и релевантные решения, объясняет руководитель группы консалтинга MTS AI Дмитрий Черноус.

Тем не менее обучение ИИ на госданных должно производиться с усиленной безопасностью, а также к продукту такого обучения должны иметь доступ только авторизованные пользователи, добавляет гендиректор группы компаний ST IT Антон Аверьянов.

Сейчас используемые модели ИИ «получают подтверждения безопасности путем тестирования и применения различных сценариев, необходимых для выявления слабых мест», говорит заместитель директора Центра компетенций НТИ по большим данным МГУ Тимофей Воронин. «Также с 1 января будет использоваться ГОСТ, закрепляющий требования к защите данных при применении ИИ»,— добавляет он. «Оценка угроз безопасности — это обязательный элемент при работе с данными, которые имеют хоть какое-то отношение к персональным или иным защищаемым категориям. Госданные относятся к защищаемым категориям, и если системы ИИ обучаются на них, то такую оценку проводить необходимо»,— считает собеседник “Ъ” на IT-рынке.

«Один из самых главных рисков — утечки данных, которые можно "деобезличить". Другая проблема — это недостоверность предсказаний. Ошибки в обучении модели или целенаправленные манипуляции могут привести к искаженным рекомендациям для госуправления или стратегических решений. А если модель содержит уязвимости, то она может стать входной точкой для атак на государственные системы»,— говорит специалист по машинному обучению «Инфосистемы Джет» Надежда Гаврикова.

Алексей Жабин

Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...