La IA oscura opera fuera de los estándares de seguridad y a menudo permite comportamientos como fraude, manipulación, ciberataques o explotación de datos sin una supervisión cercana.
Los actores maliciosos también están explotando la IA para mejorar sus capacidades de ataque. El uso indebido más común de la IA hoy en día es la aparición de modelos GPT de Black Hat. Estos son modelos de IA desarrollados o modificados específicamente para fines ilícitos, como la creación de malware, la redacción de correos electrónicos de phishing, la generación de voz y vídeos deepfake…», comentó Sergey Lozhkin, director del Equipo Global de Investigación y Análisis (GReAT) para Oriente Medio, Turquía, África y Asia Pacífico de Kaspersky.
Las GPT de Black Hat pueden existir como modelos de IA completamente privados o semiprivados. Algunos ejemplos notables incluyen WormGPT, DarkBard, FraudGPT y Xanthorox, todos diseñados para combatir la ciberdelincuencia, el fraude y las actividades de automatización maliciosas.
Lozhkin reveló que los expertos de Kaspersky ahora están observando una tendencia aún más preocupante: los grupos de ciberataques respaldados por estados o gobiernos están comenzando a aprovechar modelos de lenguaje grandes (LLM) en sus campañas de ataque.
OpenAI anunció recientemente que ha frustrado más de 20 campañas de influencia encubiertas y ciberataques que explotaron sus herramientas de IA. Tendremos que enfrentarnos a atacantes cada vez más sofisticados que utilizan la IA como arma, convirtiéndose en una amenaza tanto para los ecosistemas públicos como privados. Esta es una tendencia preocupante que todas las organizaciones deben afrontar, compartió Lozhkin.
Según un informe de OpenAI, actores maliciosos han comenzado a explotar las capacidades de los modelos de aprendizaje automático (LLM) a gran escala para engañar a las víctimas y eludir las capas de seguridad convencionales. Pueden crear mensajes falsos convincentes, enviar mensajes masivos a las víctimas y producir contenido en varios idiomas.
Para mejorar las defensas contra las amenazas de IA oscura, los expertos de Kaspersky recomiendan: utilizar soluciones de seguridad de última generación como Kaspersky Next para detectar malware generado por IA y controlar los riesgos de la cadena de suministro; aplicar herramientas de inteligencia de amenazas en tiempo real para monitorear la explotación de vulnerabilidades impulsada por IA; fortalecer el control de acceso y la capacitación del personal para limitar los riesgos de IA oscura y fuga de datos; y establecer un Centro de operaciones de seguridad (SOC) para monitorear las amenazas y responder rápidamente a los incidentes.
Fuente: https://www.sggp.org.vn/kaspersky-canh-bao-toi-pham-mang-dung-dark-ai-tan-cong-post808493.html






Kommentar (0)