Нейросети тянутся в ООН

«Лаборатория Касперского» предупредила о рисках использования ИИ в кибербезопасности

«Лаборатория Касперского» подняла в ООН вопрос регулирования применения искусственного интеллекта (ИИ) в области кибербезопасности. Системы на базе машинного обучения могут быстро устаревать, что создает риски, поясняют в компании. Там предлагают разработать принципы использования ИИ, в том числе обеспечить постоянный человеческий контроль за нейросетями и обучать их на больших данных, сведя доступ к персональной информации до минимума. Инициатива актуальна для мирового IT-сообщества, признают эксперты, однако более актуальной они считают угрозу использования ИИ хакерами, а не теми, кто от них защищается.

Фото: Raphael Satter / AP

Фото: Raphael Satter / AP

«Лаборатория Касперского» обратилась к Рабочей группе открытого состава (РГОС) по вопросам безопасности в сфере использования информационно-коммуникационных технологий (ИКТ) при ООН с предложением подготовить принципы развития ИИ для обеспечения кибербезопасности.

В документе, с которым ознакомился “Ъ”, отмечается, что ИИ применяется в сфере кибербезопасности для выявления угроз и реагирования на них, а также анализа аномалий в IT-системах.

Однако использование машинного обучения «не только положительно влияет на кибербезопасность, но и создает риски».

В частности, системы на базе машинного обучения могут устаревать или плохо работать при резком изменении входных данных, говорится в обращении.

Человеческий контроль должен быть ключевым элементом использования ИИ в сфере кибербезопасности, включая доступ экспертов в режиме реального времени ко всем данным и процессам, считают в «Лаборатории Касперского». Также там считают нужным минимизировать использование персональных данных при обучении ИИ, максимально обезличивая их. В рамках международного регулирования ИИ компания предлагает обучать системы на «обширных данных из открытых источников».

РГОС создана под эгидой первого комитета Генассамблеи ООН по инициативе России в 2018 году как площадка, на которой государства договариваются о правилах ответственного поведения в киберпространстве (см. “Ъ” от 7 ноября 2022 года). В нее входят все страны—участницы ООН, представители бизнеса, академические структуры и общественные организации.

В «Лаборатории Касперского» уточнили “Ъ”, что внесли инициативу, а в октябре планируют провести семинар «Этические принципы использования искусственного интеллекта в кибербезопасности» в рамках Форума по управлению интернетом, который пройдет в Японии под эгидой ООН. В то же время работа в области кибербезопасности ведется и на межгосударственном уровне. Например, в рамках БРИКС действует Рабочая группа по вопросам безопасности в сфере использования ИКТ, уточнили “Ъ” в Минцифры.

Роль ИИ становится все важнее, его применяют чаще, поэтому необходимо, чтобы решающее слово было за человеком, тем более что ИБ-системы имеют критическое значение для государства и корпораций, отмечает директор по стратегическим и международным проектам «Кода безопасности» Олег Кравчук:

«Поэтому международным экспертным сообществом инициатива, скорее, будет поддержана. Впрочем, зарубежные коллеги, скорее всего, и не отметят, что эту идею внесла российская сторона».

Вопрос использования ИИ в кибербезопасности в ООН обсуждается, но в соглашение между государствами не перейдет, считает аспирант Университета Джонса Хопкинса Олег Шакиров: «Государства обсуждают и не могут разрешить проблемы более высокого уровня — что такое киберконфликт, как его регулировать в рамках международного права, слишком "технических" вопросов здесь, скорее, избегают».

При этом бизнес-консультант по кибербезопасности Positive Technologies Алексей Лукацкий напоминает, что с практической точки зрения проблемы с ИИ сейчас актуальнее «в нерегулируемой сфере»: мошенники и хакеры, уже активно осваивающие технологию и создающие такие инструменты, как FraudGPT (предназначен для создания фишинговых электронных писем, инструментов для взлома, кардинга и т. д.), DarkBERT (языковая модель, обученная с использованием обширной коллекции данных даркнета) и т. п.: «Они не скованы этическими и законодательными нормами». Поэтому, добавляет эксперт, на уровне бизнеса нужно разрабатывать методы, также на базе ИИ, которые способны детектировать вредоносное использование машинного обучения, например, детекторы фишинговых атак, дипфейков, вредоносного кода и уязвимостей.

Татьяна Исакова

Зарегистрируйтесь или войдите, чтобы дочитать статью

Это бесплатно и вы сможете читать все закрытые статьи «Ъ»

Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...