Автор статьи ― Александр Кузнецов, кандидат технических наук, имеет сертификаты CISM (Certified Information Security Manager) и CISSP (Certified Information Systems Security Professional). Преподаватель GeekBrains.
На сегодняшний день искусственный интеллект (Artificial Intelligence) затронул практически все сферы человеческой деятельности, и кибербезопасность не является исключением. Ярким примером поиска синергии на стыке данных двух направлений является запущенный в 2023 году двухлетний конкурс AI Cyber Challenge, цель которого – создать системы киберзащиты нового поколения.
Задачи ИИ в кибербезопасности
Если рассматривать искусственный интеллект как комплекс технологических решений, позволяющий имитировать когнитивные функции человека, включающий в себя, в том числе программное обеспечение, использующее методы машинного обучения, то условно можно выделить два ключевых направления его применения в кибербезопасности:
- распознавание шаблонов
- выявление аномалий.
Наверное, одной из самых первых прикладных задач применения машинного обучения в кибербезопасности было обнаружение спама путем распознавания шаблонов, а выявление аномалий применялось для обнаружения вторжений в сетевом трафике. Ну, а методы решения задач по обнаружению и анализу вредоносного программного обеспечения успешно комбинирует распознавание шаблонов и выявление аномалий.
входят в ТОП-30 с доходом
от 210 000 ₽/мес
Скачивайте и используйте уже сегодня:
Топ-30 самых востребованных и высокооплачиваемых профессий 2023
Поможет разобраться в актуальной ситуации на рынке труда
Подборка 50+ бесплатных нейросетей для упрощения работы и увеличения заработка
Только проверенные нейросети с доступом из России и свободным использованием
ТОП-100 площадок для поиска работы от GeekBrains
Список проверенных ресурсов реальных вакансий с доходом от 210 000 ₽
Сейчас же к актуальным прикладным задачам применения искусственного интеллекта стоит отнести борьбу с мошенничеством (Anti-fraud), управление и разграничение прав доступа к различным ресурсам, особенно удаленного доступа.
Отдельное внимание уделяется обнаружению и приоритизации уязвимостей, а также обнаружению и реагированию на инциденты информационной безопасности, включая полностью автоматическое реагирование, т.е. без участия человека. Безусловно, начинается все с гранулированного участия искусственного интеллекта, зачастую в backend-е, но, постепенно он выходит на передний план, как полноценная frontend-составляющая, например, в формате чат-бота или «Второго пилота» (Security Copilot).
Спектр прикладных задач применения искусственного интеллекта в кибербезопасности постоянно расширяется, и в какой-то момент уже не останется проектов и команд, не взявших на вооружение искусственный интеллект. А если учесть, что область обеспечения кибербезопасности испытывает серьезнейший кадровый дефицит, то каждый из вас уже сейчас может начать изучать ее именно через призму применения искусственного интеллекта и участвовать в решении возникающих задач.
Как Chat GPT помогает хакерам
Но, к сожалению, не стоит рассчитывать на то, что искусственный интеллект используется и будет использоваться только в добропорядочных целях, т.е. для защиты информационных систем и данных. Ведь, уже с конца 2022 года публичный сервис Chat GPT использовался злоумышленниками для подготовки и проведения кибератак. А постепенно возникли целевые злонамеренно созданные аналоги сервиса Chat GPT.
Для многих злоумышленников искусственный интеллект стал «палочкой выручалочкой» в разрезе организации и поддержки бот-сетей и обфускации кода вредоносного программного обеспечения, но наибольшую опасность он представляет в части подготовки кибератак с элементами социальной инженерии. Связано это с тем, что на сегодняшний день большая часть данных, доступных искусственному интеллекту для обучения и анализа, относится именно к деятельности человека и человеку как потребителю различных услуг, включая его предпочтения и слабости.
Можно констатировать, что в кибербезопасности искусственный интеллект уже активно применяется, и он будет непрерывно расширять область своего применения как в оборонительных (Defensive Cybersecurity), так и в наступательных (Offensive Cybersecurity) операциях в широком смысле слова.
Скачать файлНеобходимость защиты самого ИИ от атак
Стоит отметить еще один важный момент, относящийся к кибербезопасности самого искусственного интеллекта, т.е. когда искусственный интеллект сам выступает объектом защиты или атаки (в зависимости от того с чьей стороны посмотреть).
И чем же это отличается от проблематики защиты классических (неинтеллектуальных) информационных систем? А дело в том, что в случае с классическими информационными системами мероприятия по обеспечению их кибербезопасности направлены, в первую очередь, на обеспечение доступности самой системы и данных, а также на обеспечение целостности и конфиденциальности обрабатываемых данных. А в случае с системами (сервисами) искусственного интеллекта возникают более приоритетные защитные мероприятия, направленные на обеспечение добросовестного обучения и корректного принятия решений искусственным интеллектом.
Здесь возможны атаки злоумышленников на данные, которые используются для обучения, атаки на алгоритмы и конкретные способы их реализации, а также на всю поддерживающую функционирование систем (сервисов) искусственного интеллекта инфраструктуру. Именно в данном контексте говорят о состязательном (недобросовестном) машинном обучении (Adversarial Machine Learning).
на курсы от GeekBrains до 20 октября
Подходы к стандартизации угроз в отношении ИИ
Таким образом, обеспечение кибербезопасности самого искусственного интеллекта – это отдельная сложная задача, которая стремительно набирает свою актуальность. И здесь нехватка специалистов ощущается острее всего, т.к. даже на уровне подходов к ее решению и стандартов только-только появляются первые ласточки. Например, только в январе 2024 года в США вышел стандарт NIST AI 100-2e2023 «Adversarial Machine Learning: A Taxonomy and Terminology of Attacks and Mitigations» про терминологию и классификацию атак. А ожидаемый международный стандарт ISO/IEC CD 27090 «Cybersecurity. Artificial Intelligence. Guidance for addressing security threats and failures in artificial intelligence systems» пока еще находится на стадии разработки.
Говоря о стандартизации, необходимо отметить, что и нормативно-правовое регулирование искусственного интеллекта в Российской Федерации в целом, не говоря уже о регулировании искусственного интеллекта в разрезе кибербезопасности, практически отсутствует, т.е. в этом направлении нам всем еще предстоит большая работа. Результаты которой могут как подтолкнуть нас в число передовых стран, так, к сожалению, и наоборот отбросить из числа лидеров.
Комплексный подход
Видно, что даже эта небольшая публикация демонстрирует многогранность пересечения направлений искусственного интеллекта и кибербезопасности. Целесообразно рассматривать эти направления в комплексе (см. рисунок). Именно комплексный подход позволит нам взвешенно принимать решения и по их совместному применению, и по развитию решений в данных областях науки и техники.
Вне зависимости от глубины интеграции и взаимопроникновения искусственного интеллекта и кибербезопасности не произойдет полной замены специалистов-киберзащитников. Уже в самом ближайшем будущем нам потребуются специалисты и эксперты, которые будут развивать и обслуживать и интеллектуальные системы киберзащиты, и системы искусственного интеллекта в защищенном исполнении, поэтому смело изучайте эти перспективные направления.
Если вы хотите стать специалистом по кибербезопасности, то пройдите программу обучения GeekBrains «Специалист по информационной безопасности с нуля до Junior». Вы научитесь собирать и обрабатывать данные, проектировать хранилища и работать с инфраструктурой. Вы станете профессионалом, который обеспечивает конфиденциальность любой информации, касающейся как самой компании, так и ее сотрудников. Записаться на обучение можно здесь