«Тёмный ИИ» работает вне рамок стандартов безопасности, часто позволяя совершать такие действия, как мошенничество, манипуляции, кибератаки или эксплуатацию данных, без тщательного контроля.
«Злоумышленники также используют ИИ для расширения своих возможностей в атаках. Наиболее распространенным злоупотреблением ИИ сегодня является появление моделей Black Hat GPT. Это модели ИИ, специально разработанные или модифицированные для достижения незаконных целей, таких как создание вредоносного ПО, составление фишинговых писем, генерация голосовых и дипфейк-видео…», — поделился Сергей Ложкин, руководитель глобальной группы исследований и анализа (GReAT) по Ближнему Востоку, Турции, Африке и Азиатско -Тихоокеанскому региону в компании «Лаборатория Касперского».
GPT-сервисы Black Hat могут существовать как полностью закрытые или полузакрытые модели ИИ. К числу известных примеров относятся WormGPT, DarkBard, FraudGPT и Xanthorox, все они предназначены для киберпреступлений, мошенничества и вредоносной автоматизации.
Ложкин сообщил, что эксперты «Лаборатории Касперского» наблюдают еще более тревожную тенденцию: поддерживаемые государством или правительством кибергруппировки начинают использовать большие языковые модели (LLM) в своих атаках.
«Компания OpenAI недавно объявила о том, что пресекла более 20 скрытых кампаний влияния и кибератак, в которых использовались ее инструменты ИИ. Нам придется столкнуться со все более изощренными злоумышленниками, которые используют ИИ в качестве оружия, становясь угрозой как для государственных, так и для частных экосистем. Это тревожная тенденция, к которой должны быть готовы все организации», — отметил Ложкин.
Согласно отчету OpenAI, злоумышленники начали использовать возможности крупномасштабных моделей машинного обучения (LLM) для обмана жертв и обхода традиционных уровней безопасности. Они могут создавать убедительные поддельные сообщения, рассылать массовые сообщения жертвам и создавать контент на нескольких языках.
Для усиления защиты от угроз, связанных с «теневым ИИ», эксперты «Лаборатории Касперского» рекомендуют: использовать решения безопасности нового поколения, такие как Kaspersky Next, для обнаружения вредоносного ПО, созданного с помощью ИИ, и контроля рисков в цепочке поставок; применять инструменты анализа угроз в режиме реального времени для мониторинга эксплуатации уязвимостей, связанных с ИИ; усилить контроль доступа и обучение персонала для ограничения рисков, связанных с «теневым ИИ» и утечкой данных; и создать Центр оперативного управления безопасностью (SOC) для мониторинга угроз и быстрого реагирования на инциденты.
Источник: https://www.sggp.org.vn/kaspersky-canh-bao-toi-pham-mang-dung-dark-ai-tan-cong-post808493.html






Комментарий (0)