/ Автор: orsecadmin | Оставить комментарий
«Лаборатория Касперского» обратилась к Рабочей группе открытого состава (РГОС) по вопросам безопасности в сфере использования информационно-коммуникационных технологий (ИКТ) при ООН с предложением подготовить принципы развития ИИ для обеспечения кибербезопасности.
В документе, с которым ознакомился “Ъ”, отмечается, что ИИ применяется в сфере кибербезопасности для выявления угроз и реагирования на них, а также анализа аномалий в IT-системах.
Однако использование машинного обучения «не только положительно влияет на кибербезопасность, но и создает риски».
В частности, системы на базе машинного обучения могут устаревать или плохо работать при резком изменении входных данных, говорится в обращении.
Человеческий контроль должен быть ключевым элементом использования ИИ в сфере кибербезопасности, включая доступ экспертов в режиме реального времени ко всем данным и процессам, считают в «Лаборатории Касперского». Также там считают нужным минимизировать использование персональных данных при обучении ИИ, максимально обезличивая их. В рамках международного регулирования ИИ компания предлагает обучать системы на «обширных данных из открытых источников».
РГОС создана под эгидой первого комитета Генассамблеи ООН по инициативе России в 2018 году как площадка, на которой государства договариваются о правилах ответственного поведения в киберпространстве. В нее входят все страны—участницы ООН, представители бизнеса, академические структуры и общественные организации.
В «Лаборатории Касперского» уточнили, что внесли инициативу, а в октябре планируют провести семинар «Этические принципы использования искусственного интеллекта в кибербезопасности» в рамках Форума по управлению интернетом, который пройдет в Японии под эгидой ООН. В то же время работа в области кибербезопасности ведется и на межгосударственном уровне. Например, в рамках БРИКС действует Рабочая группа по вопросам безопасности в сфере использования ИКТ.
Роль ИИ становится все важнее, его применяют чаще, поэтому необходимо, чтобы решающее слово было за человеком, тем более что ИБ-системы имеют критическое значение для государства и корпораций, отмечает директор по стратегическим и международным проектам «Кода безопасности» Олег Кравчук:
«Поэтому международным экспертным сообществом инициатива, скорее, будет поддержана. Впрочем, зарубежные коллеги, скорее всего, и не отметят, что эту идею внесла российская сторона».
Вопрос использования ИИ в кибербезопасности в ООН обсуждается, но в соглашение между государствами не перейдет, считает аспирант Университета Джонса Хопкинса Олег Шакиров: «Государства обсуждают и не могут разрешить проблемы более высокого уровня — что такое киберконфликт, как его регулировать в рамках международного права, слишком «технических» вопросов здесь, скорее, избегают».
При этом бизнес-консультант по кибербезопасности Positive Technologies Алексей Лукацкий напоминает, что с практической точки зрения проблемы с ИИ сейчас актуальнее «в нерегулируемой сфере»: мошенники и хакеры, уже активно осваивающие технологию и создающие такие инструменты, как FraudGPT (предназначен для создания фишинговых электронных писем, инструментов для взлома, кардинга и т. д.), DarkBERT (языковая модель, обученная с использованием обширной коллекции данных даркнета) и т. п.: «Они не скованы этическими и законодательными нормами». Поэтому, добавляет эксперт, на уровне бизнеса нужно разрабатывать методы, также на базе ИИ, которые способны детектировать вредоносное использование машинного обучения, например, детекторы фишинговых атак, дипфейков, вредоносного кода и уязвимостей.
С заботой о вашей безопасности, команда Origin Security