ИИ становится мощным помощником киберпреступников. Фото: Cato Networks . |
Не только обычные пользователи, но и киберпреступники всё чаще используют ИИ для создания более сложных атак, чем когда-либо. Менее чем за два года инструменты ИИ для поддержки хакеров стремительно развивались с точки зрения функциональности и эффективности.
Адриан Хиа, директор Kaspersky Asia и Japan (APJ), отметил, что Dark AI играет огромную роль в стремительном росте вредоносного ПО. Статистика «Лаборатории Касперского» показывает, что ежедневно создаётся почти полмиллиона вредоносных программ.
«Темный ИИ похож на темную паутину — темную сторону Интернета, которой мы пользуемся каждый день», — сказал г-н Хиа.
Сергей Ложкин, руководитель Глобальной исследовательской и аналитической группы «Лаборатории Касперского» (GReAT) по Азиатско -Тихоокеанскому региону (APAC) и Ближнему Востоку, Африке и Турции (META), отметил, что Dark AI кардинально отличается от традиционных чат-ботов на основе ИИ, таких как ChatGPT или Gemini.
Искусственный интеллект, с которым знакомы пользователи, создан для оказания помощи пользователям и выполнения законных задач, и даже если ему приказано создать вредоносное ПО или выполнить незаконную деятельность, пользователи столкнутся с трудностями в достижении своих целей.
Между тем, Dark AI, по словам Ложкина, «на самом деле — это LLM или чат-боты, созданные исключительно для совершения вредоносных действий в киберпространстве». Эти ИИ обучены генерировать вредоносное ПО, фишинговый контент или даже полноценную инфраструктуру, которую киберпреступники могут использовать для мошенничества.
Скрытая система искусственного интеллекта только для проверенных хакеров
Эти системы, которые г-н Ложкин называет Black Hat GPT или «черной GPT», существуют с 2023 года. Представители «Лаборатории Касперского» заявили, что на тот момент ИИ был очень примитивным, создавал очень плохой код и мог быть обнаружен немедленно.
Однако в последнее время системы GPT, использующие чёрный метод, стали более совершенными и способны выполнять множество функций: от создания вредоносного кода и мошеннического контента до имитации голоса и видео . Среди них — WormGPT, DarkBard и FraudGPT.
![]() |
Сергей Ложкин, исследователь «Лаборатории Касперского», предупреждает, что качество Dark AI становится всё лучше и лучше. Фото: Минь Хой. |
Одним из самых тревожных открытий «Лаборатории Касперского» стало существование частных систем искусственного интеллекта Dark AI, доступных только авторитетным киберпреступникам. Чтобы получить доступ к этим частным системам искусственного интеллекта, хакерам необходимо заработать себе репутацию на подпольных форумах.
«Доступ к таким системам возможен только при наличии доверия. Чтобы получить доступ к этим помощникам, нужно заработать репутацию на подпольных форумах», — заявил эксперт «Лаборатории Касперского».
Ложкин рассказал, что у «Лаборатории Касперского» есть подразделение «Цифровой разведки», которое годами внедряется в подпольные форумы, отслеживает и отслеживает активность пользователей. Получив доступ к новым системам, компания продолжает активно изучать принципы работы Dark AI, его функции и эффективность.
Темный ИИ становится сильнее
Dark AI становится эффективным инструментом для опытных хакеров. Для тех, кто обладает лишь базовыми знаниями в программировании, использование генератора программ-вымогателей может привести к созданию только ПО, которое легко распознаётся антивирусом. Однако для опытных хакеров Dark AI может повысить производительность кодинга, создавая новые вредоносные программы.
«Это качество во многом зависит от каждой конкретной платформы или Dark AI. Некоторые генерируют очень низкокачественный код, но есть и инструменты, которые могут достигать 7–8 баллов из 10», — поделился г-н Ложкин с Tri Thuc - Znews .
Одним из примеров является возможность создания полиморфного кода. Раньше, когда антивирус обнаруживал вредоносный код, хакерам требовалось много времени, чтобы изменить его. Теперь же Dark AI может делать это «практически мгновенно», создавая версию, которую сложнее обнаружить.
Кроме того, тёмные LLM-программы преодолевают языковой барьер при фишинговых атаках. Эксперты «Лаборатории Касперского» утверждают, что новое поколение фишинговых писем сложнее обнаружить из-за практически идеального английского языка, который может даже «быть похож на голос генерального директора».
![]() |
Некоторые «комплексные» системы Dark AI могут генерировать код, интегрировать голосовую имитацию и отправлять фишинговые письма. Фото: Kaspersky. |
Способность специализированной системы Dark AI создавать поддельные голоса и изображения также становится всё более совершенной. Г-н Ложкин даже заявил, что «больше не верит в видеозвонки» благодаря своему опыту работы в службе безопасности.
Однако эксперты «Лаборатории Касперского» также заявили, что пользователи все равно могут распознать мошеннический звонок по личному поведению, речевым привычкам и некоторым уникальным характеристикам.
«Эти функции сложно подделать, поэтому постарайтесь связаться напрямую с человеком, которого, по вашему мнению, обманывают», — сказал исследователь по вопросам безопасности Tri Thuc – Znews .
«Гонка вооружений ИИ»
Развитие Dark AI спровоцировало технологическую гонку вооружений между киберпреступниками и специалистами по кибербезопасности. «Лично я сейчас использую ИИ для всего: исследований, программирования, реверс-инжиниринга. Моя производительность в этом году выросла в 10–20 раз», — признаётся Ложкин.
«Если вы не используете ИИ для создания защитного механизма, в то время как злодеи используют ИИ для нападения, вы проиграете. Это начало гонки между хорошими и плохими парнями, использующими ИИ», — предупредил он.
![]() |
Адриан Хиа, директор Kaspersky APJ, заявил, что Dark AI помогает быстрее создавать вредоносное ПО. Фото: Минь Хой. |
Google сообщила о блокировке более 20 вредоносных действий, совершаемых спонсируемыми государством группами, пытавшимися использовать ChatGPT для создания вредоносного ПО и планирования атак. В 2024 году компания выявила 40 поддерживаемых государством APT-групп с помощью моделей искусственного интеллекта.
Особую тревогу вызывают полноценные фреймворки, такие как Xanthorox, предлагающий «полный пакет» услуг за 200 долларов в месяц. Система объединяет генерацию голоса, фишинговые письма и другие инструменты атак в удобном интерфейсе.
Эксперты «Лаборатории Касперского» предупреждают, что технология Dark AI всё ещё находится в зачаточном состоянии. Адриан Хайа прогнозирует, что в ближайшие несколько лет стоимость её использования, вероятно, значительно снизится, и пока неизвестно, насколько далеко она продвинется.
«Но в чем я абсолютно уверен, так это в том, что мы будем готовы, потому что мы делаем то же самое, но с противоположной стороны», — прокомментировал г-н Ложкин.
Источник: https://znews.vn/moi-nguy-khi-toi-pham-so-huu-ai-den-post1574400.html
Комментарий (0)