По мере того, как ИИ становится все более доступным, все больше людей и предприятий используют ИИ с помощью общих инструментов, хакеры также могут автоматизировать атаки, ускорять операции и развертывать более сложные кампании для достижения своих незаконных целей.
Вот типы атак, которые обнаружила компания «Лаборатория Касперского»: ChatGPT может использоваться для разработки вредоносного ПО и автоматического развертывания атак на несколько жертв; программы ИИ проникают в данные пользователей на смартфонах и, посредством анализа конфиденциальных данных, могут полностью «считывать» сообщения, пароли и банковские коды жертв; алгоритмы роевого интеллекта помогают автоматизированным компьютерным сетям (бонетам) восстанавливать вредоносные сети, которые были устранены с помощью решений по обеспечению безопасности.
Исследования Касперского по использованию ИИ для взлома паролей показывают, что большинство паролей зашифрованы с использованием алгоритмов хеширования, таких как MD5 и SHA. Соответственно, простая операция может преобразовать пароль в поток зашифрованного текста, но обращение всего процесса вспять — это большая проблема.
С помощью ИИ злоумышленники могут использовать мошеннический контент, включая текст, изображения, аудио и видео , для запуска атак социальной инженерии. Большие языковые модели, такие как ChatGPT-4o, используются для создания высокотехнологичных фишинговых скриптов и сообщений. Преодолевая языковые барьеры, ИИ может написать настоящее электронное письмо на основе информации в социальных сетях. ИИ может даже имитировать стиль письма жертвы. Это еще больше затрудняет обнаружение фишингового поведения.
В то же время Deepfake существует как «проблема» в кибербезопасности, хотя ранее он считался продуктом научных исследований. Выдача себя за знаменитостей с целью получения финансовой выгоды является наиболее распространенным методом, далее мошенники также используют Deepfake для кражи аккаунтов, совершения поддельных звонков друзьям и родственникам жертв с целью присвоения имущества.
Помимо использования технологии ИИ для незаконной деятельности, злодеи также могут атаковать алгоритмы ИИ. Например, атаки «оперативной инъекции» путем ввода вредоносных команд в большие языковые модели, даже идущие вразрез с ранее ограниченными правилами; состязательные атаки путем добавления скрытых информационных полей к изображениям или аудио, чтобы повлиять на способность систем машинного обучения классифицировать изображения.
ИИ все больше интегрируется во все аспекты человеческой жизни, от Apple Intelligence, Google Gemini до Microsoft Copilot. Поэтому устранение уязвимостей ИИ должно быть главным приоритетом. Kaspersky уже много лет использует технологию ИИ для защиты клиентов и партнеров, постоянно ищет уязвимости в системах ИИ, повышает устойчивость системы и активно исследует методы кибератак для обеспечения надежной защиты от атак ИИ.
КИМ ТХАНЬ
Источник: https://www.sggp.org.vn/nhieu-thach-thuc-cua-ai-trong-thoi-dai-moi-post754401.html
Комментарий (0)