
Наша компания оказывает помощь по написанию статей по предмету Информационное право. Используем только актуальное законодательство, проекты федеральных законов, новейшую научную литературу и судебную практику. Предлагаем вам воспользоваться нашими услугами. На все выполняемые работы даются гарантии
Вернуться к списку статей по юриспруденции
ОБЕСПЕЧЕНИЕ ИНФОРМАЦИОННОЙ БЕЗОПАСНОСТИ С ИСПОЛЬЗОВАНИЕМ ТЕХНОЛОГИЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
Е.Н. КЛОЧКОВА, О.В. ПИМЕНОВА
Искусственный интеллект (далее - ИИ) в настоящее время - это повсеместно используемый термин и одна из самых перспективных технологий. Стоит отметить, что развитие ИИ в нашем государстве вполне соответствует общемировым тенденциям. Активно ведется работа в рамках фундаментальных научных исследований, а также обеспечение практического применения их результатов.
Скорость развития и изменения киберландшафта диктует необходимость применения технологий ИИ, в том числе и в сфере обеспечения информационной безопасности. В настоящее время явно прослеживается целесообразность применения данных передовых технологий для эффективного противостояния современным хакерским группировкам.
Сам термин "искусственный интеллект" в 1956 г. впервые использовал американский ученый Джон Маккарти. Немного ранее, в конце 40-х годов, другим известным ученым Аланом Тьюрингом (Великобритания) для создания концепции ИИ велись исследования в области построения математической модели искусственного нейрона и нейронной сети на базе наблюдений за естественными нейронами и живыми организмами. Он описал концепции машинного обучения и ИИ в своих статьях "Разумные машины" (1948 г.) и "Вычислительные машины и разум" (1950 г.). Это было первой попыткой перевода живого организма в цифровой вид и представления живого существа как набора алгоритмов, которые можно проанализировать и попытаться воспроизвести.
В 1959 г. Артур Самуэль - работавший в IBM американский исследователь <1> - создал программу для игры в шашки, которая умела играть сама с собой, одновременно самостоятельно обучаясь.
--------------------------------
<1> Федулов Д. Машинное обучение: что это, суть и принципы - типы машинного обучения и его применение // Яндекс.Практикум. URL: https://practicum.yandex.ru/blog/chto-takoe-mashinnoe-obuchenie/ (дата обращения: 05.04.2024).
Во второй половине 80-х годов в университете Карнеги-Меллон была создана вычислительная машина для игры в шахматы ChipTest, послужившая основанием для создания Deep Blue - знаменитого суперкомпьютера, который сумел обыграть известного гроссмейстера Г. Каспарова.
С того времени исследования в области создания систем ИИ прошли большой путь. Многие крупные IT-корпорации вложили огромные ресурсы в развитие данного направления. Компания Google в 2011 г. основала отдельное подразделение Google Brain, занимавшееся исследованиями в области ИИ. Три года спустя подобные подразделения появились у Microsoft и Amazon. Компанией Facebook <2> был разработан алгоритм DeepFace, умеющий распознавать человеческие лица.
--------------------------------
<2> Принадлежит компании Meta, признанной экстремистской в Российской Федерации.
В связи с резким ростом угроз информационной безопасности и увеличением числа хакерских групп, в том числе поддерживаемых враждебными государствами и использующих передовые технологии для незаконной деятельности, крайне важно повысить эффективность мер защиты информации. Внедрение систем ИИ является одним из ключевых направлений для достижения этой цели. Активное развитие ИИ-технологий выводит борьбу с киберпреступностью на качественно новый уровень.
При рассмотрении возможности практического применения систем ИИ в обеспечении кибербезопасности необходимо отметить следующее. Использование технологий ИИ в сфере обеспечения информационной безопасности в настоящее время обусловливается прежде всего двумя факторами: потребностью оперативного реагирования на возникающие инциденты информационной безопасности и объективной нехваткой квалифицированных специалистов для работы в центрах мониторинга информационной безопасности.
В 2024 г. известным ресурсом по поиску работы (hh.ru) было опубликовано более 9 000 вакансий по специальностям в сфере обеспечения информационной безопасности. Это на 20% больше, чем в 2023 г. На 4% уменьшилось количество размещаемых специалистами по информационной безопасности резюме <3>.
--------------------------------
<3> Admin. Компания hh.ru представила результаты своего нового исследования рынка труда в сфере информационных технологий и информационной безопасности за второй квартал 2023 года // Информационные технологии, кибербезопасность, искусственный интеллект. URL: https://newsletter.radensa.ru/archives/3059?ysclid=lv9z4jkxyp771413815 (дата обращения: 08.04.2024).
Как показывает практика, инциденты информационной безопасности развиваются стремительно. При реагировании на инциденты и ликвидации их последствий счет идет на секунды. Кроме того, злоумышленники перед проведением целевой атаки могут попытаться отвлечь внимание специалистов, обеспечивающих защиту ресурсов, провести сканирование адресного пространства организации или инициировать DDoS-атаку. В таких условиях при отсутствии в организации круглосуточной дежурной смены аналитиков информационной безопасности довольно затруднительно обеспечить качественную защиту информационной инфраструктуры. Альтернативным решением сможет стать система реагирования на киберинциденты, реализованная на основе технологий ИИ, которая позволит автоматизировать рутинные действия аналитиков центров мониторинга информационной безопасности по обработке большого количества данных и своевременному реагированию на инциденты без участия человека.
В условиях кадрового дефицита и роста количества атак методы машинного обучения, внедряемые в состав решений (платформ), обеспечивающих кибербезопасность, помогут эффективно предотвращать атаки, обнаруживать и автоматически устранять угрозы, оптимизировать процессы реагирования и улучшить их точность, а также более эффективно решать повседневные задачи, выполняемые сотрудниками центров мониторинга информационной безопасности.
Системы обеспечения кибербезопасности, использующие ИИ, способны:
- анализировать действия пользователей: ИИ оценивает, насколько обычным является поведение человека, сравнивая его с типичными моделями работы, использованием программ и сетевой активностью;
- выявлять подозрительные файлы: система может определять потенциально вредоносные программы, даже если их нельзя напрямую идентифицировать, по косвенным признакам;
- находить угрозы в сетевом трафике: ИИ способен обнаруживать атаки, скрытые в неструктурированных данных, анализируя потоки сетевой информации.
При построении эффективной системы защиты центрами мониторинга информационной безопасности чаще всего используются:
- система управления уязвимостями (Vulnerability Management System, VMS);
- система управления событиями информационной безопасности (Security Information and Event Management, SIEM);
- система защиты от целевых атак, "песочница" (Sandbox);
- система анализа сетевого трафика (Network Traffic Analysis, NTA).
Внедрение ИИ в систему управления уязвимостями могло бы значительно повысить ее эффективность. В частности, ИИ способен выявлять наиболее востребованные злоумышленниками уязвимости еще до начала их активной эксплуатации.
Уязвимости с высоким уровнем критичности представляют наибольший риск, поскольку именно они чаще всего становятся мишенью хакеров. Ежедневно обнаруживается более 60 новых уязвимостей. При этом для киберпреступников интерес представляют не только свежие, но и давно известные уязвимости.
ИИ может быть полезен для анализа информации из открытых источников с целью определения уровня "популярности" той или иной уязвимости, а также предугадать, какие уязвимости будут "популярны" в ближайшем будущем. Своевременное информирование позволит быть на шаг впереди и значительно снизить риск использования злоумышленниками опасных уязвимостей.
В свою очередь, SIEM-система в режиме реального времени анализирует события безопасности с сетевых устройств и программ, позволяя оперативно реагировать на угрозы до того, как они причинят ущерб. Интеграция технологий ИИ в SIEM-системы, например, для обнаружения аномалий в журналах событий информационной безопасности и помощи аналитикам в определении, является ли конкретное событие инцидентом информационной безопасности на основе предоставленных данных, позволила бы быстро и точно обеспечивать эффективную кибербезопасность.
Применение технологий ИИ при создании системы "песочницы" (Sandbox) значительно повысит эффективность обнаружения вредоносного программного обеспечения. Вместо традиционного анализа, основанного на заранее заданных правилах и сигнатурах, ИИ сможет выявлять угрозы по нетипичному и аномальному поведению. Это включает в себя обнаружение нестандартных параметров вызовов, аномальных цепочек подпроцессов и нетипичных последовательностей вызовов функций.
Помимо вышеперечисленных, основной задачей для центров мониторинга информационной безопасности остается выявление атак как внутри инфраструктуры, так и на периметре сети. Системы данного класса помогают определить ранее не известные IT-службе сетевые узлы. Анализируя трафик, система формирует сетевой профиль актива, определяет его тип и роль. NTA-система определит и зафиксирует время появления узла в сети, тип узла и его активность.
Применение ИИ повысит эффективность выявления аномалий, сравнивая текущее поведение узла с его типичной активностью.
Так, например, возможны следующие варианты использования результатов работы системы с ИИ-модулем:
- увеличившийся по сравнению с обычным объем входящего трафика на сервер, расположенный в демилитаризованной зоне, может свидетельствовать о наличии соединения узла внутренней сети с узлом из внешней сети и, как следствие, присутствии злоумышленника во внутренней сети организации;
- значительно возросший объем трафика, передаваемого на внешние облачные сервисы, может свидетельствовать о несанкционированной выгрузке данных;
- превышение количества уникальных соединений между одним узлом из внутренней сети и группой серверного сегмента может свидетельствовать о попытках подбора учетных записей или горизонтальном перемещении злоумышленника по сети организации.
Кроме того, системы ИИ могут быть использованы для противодействия "внутреннему нарушителю". Обеспечив сбор телеметрии о типовом поведении пользователя, система сможет отправить предупреждение сотрудникам центра мониторинга информационной безопасности в случае существенного изменения модели его работы, например, отсутствие активности в рабочее время или работе в выходные дни, открытии "подозрительных" сайтов, изменении перечня контактов по переписке. Системы, оснащенные подсистемами обработки биометрических данных, в том числе компьютерного зрения и распознавания речи, смогут оперативно оповещать сотрудников службы охраны о попытках прохода на территорию посторонних лиц по пропускам действующих сотрудников, анализировать рабочую активность сотрудников с помощью веб-камер, оценивать корректность общения сотрудников с контрагентами.
Перечислив возможные достоинства внедрения ИИ в состав средств и систем обеспечения информационной безопасности, становится очевидным, что данные преимущества активно начнут использовать и злоумышленники в преступных целях. Уже повсеместно фиксируются факты применения Deepfake-технологии как для обхода банковских анти-фрод систем, так и для проведения целевых атак в отношении крупных компаний и органов государственной власти, используя для обмана сотрудников создаваемые ИИ реалистичные образы руководителей. Кроме того, использование в составе вредоносного программного обеспечения элементов ИИ, позволяющих незаметно перемещаться по сети организации, при этом повышая уровень привилегий, все чаще подтверждается специалистами при расследовании компьютерных инцидентов.
Рассмотрев возможные сценарии применения элементов ИИ в области обеспечения кибербезопасности, можно однозначно утверждать, что они помогут автоматизировать часть функций, выполняемых специалистами по информационной безопасности.
ИИ-технологии, внедренные в функционал средств защиты информации, а также в состав инструментария, используемого центрами мониторинга информационной безопасности, позволят сотрудникам эффективно оценивать возможные риски, оперативно принимать взвешенные решения и противостоять современным угрозам.
Литература
1. Admin. Компания hh.ru представила результаты своего нового исследования рынка труда в сфере информационных технологий и информационной безопасности за второй квартал 2023 года / Admin // Информационные технологии, кибербезопасность, искусственный интеллект. 2023. 14 сентября.
2. Пименова О.В. Перспективы использования искусственного интеллекта для обеспечения кибербезопасности информационных ресурсов и систем на примере технологий машинного обучения (ML-технологий) / О.В. Пименова, Е.Н. Клочкова // Информационные технологии в деятельности органов внутренних дел: материалы Международной научно-практической конференции (г. Москва, 18 апреля 2024 г.): сборник научных трудов / составитель М.С. Мельцева. Москва: Московский университет МВД РФ им. В.Я. Кикотя, 2024. С. 210 - 213.
3. Федулов Д. Машинное обучение: что это, суть и принципы - типы машинного обучения и его применение / Д. Федулов // Яндекс.Практикум. 2025. 17 июня.
Наша компания оказывает помощь по написанию курсовых и дипломных работ, а также магистерских диссертаций по предмету Информационное право, предлагаем вам воспользоваться нашими услугами. На все работы дается гарантия.

Навигация по сайту:
Контакты:
"Горячие" документы: