La IA oscura opera fuera de las normas de seguridad, y a menudo permite comportamientos como fraude, manipulación, ciberataques o minería de datos sin una supervisión cercana.
Los actores maliciosos también utilizan la IA para mejorar sus capacidades de ataque. La forma más común de abuso de la IA hoy en día es la aparición de modelos GPT de Black Hat. Se trata de modelos de IA especialmente desarrollados o adaptados para fines ilegales, como la creación de malware, la redacción de correos electrónicos de phishing, la generación de voces y vídeos deepfake...», declaró Sergey Lozhkin, director del Equipo Global de Investigación y Análisis (GReAT) para Oriente Medio, Turquía, África y Asia- Pacífico de Kaspersky.
Las GPT de Black Hat pueden existir como modelos de IA totalmente privados o semiprivados. Algunos ejemplos notables incluyen WormGPT, DarkBard, FraudGPT y Xanthorox, todos diseñados para combatir la ciberdelincuencia, el fraude y la automatización maliciosa.
Lozhkin reveló que los expertos de Kaspersky ahora están registrando una tendencia aún más preocupante: grupos de ciberataques respaldados por estados nacionales o gobiernos están comenzando a aprovechar modelos de lenguaje grandes (LLM) en sus campañas de ataque.
OpenAI anunció recientemente que ha desmantelado más de 20 campañas de influencia encubiertas y ciberataques que explotaban sus herramientas de IA. Seguiremos viendo atacantes cada vez más sofisticados que utilizan la IA como arma, lo que representa una amenaza tanto para los ecosistemas públicos como privados. Esta es una tendencia preocupante para la que todas las organizaciones deben prepararse, afirmó Lozhkin.
Según el informe de OpenAI, actores maliciosos han comenzado a explotar las capacidades de los grandes modelos de aprendizaje automático (LLM) para engañar a las víctimas y eludir las capas de seguridad convencionales. Pueden crear mensajes falsos convincentes, enviar mensajes masivos a las víctimas y producir contenido en varios idiomas.
Para fortalecer las defensas contra las amenazas de IA oscura, los expertos de Kaspersky recomiendan: utilizar soluciones de seguridad de última generación como Kaspersky Next para detectar malware generado por IA y controlar los riesgos en la cadena de suministro; aplicar herramientas de inteligencia de amenazas en tiempo real para monitorear exploits generados por IA; reforzar los controles de acceso y la capacitación de los empleados para limitar la IA oscura y el riesgo de fuga de datos; y establecer un Centro de Operaciones de Seguridad (SOC) para monitorear las amenazas y responder rápidamente a los incidentes.
Fuente: https://www.sggp.org.vn/kaspersky-canh-bao-toi-pham-mang-dung-dark-ai-tan-cong-post808493.html
Kommentar (0)