A medida que la IA se vuelve más accesible y más personas y empresas la utilizan a través de herramientas comunes, los piratas informáticos pueden automatizar ataques, acelerar procesos operativos y desplegar campañas más sofisticadas para lograr sus objetivos ilícitos.
A continuación se detallan algunos de los métodos de ataque que Kaspersky ha observado: ChatGPT puede utilizarse para desarrollar malware y desplegar ataques automáticamente a múltiples víctimas; los programas de IA se infiltran en los datos de los usuarios de teléfonos inteligentes y, mediante el análisis de datos confidenciales, los atacantes pueden "robar" completamente mensajes, contraseñas y códigos bancarios de las víctimas; los algoritmos de inteligencia colectiva ayudan a las redes informáticas a recuperar automáticamente (mediante la técnica de bonet) las redes maliciosas que han sido eliminadas por las soluciones de seguridad.
Las investigaciones de Kaspersky sobre el uso de la IA para descifrar contraseñas indican que la mayoría de ellas se cifran mediante algoritmos de hash como MD5 y SHA. Por lo tanto, una operación sencilla puede transformar una contraseña en una línea de texto cifrado, pero revertir todo el proceso supone un reto considerable.
Mediante la IA, los ciberdelincuentes pueden explotar contenido fraudulento, como texto, imágenes, audio y vídeo , para lanzar ataques no técnicos. Se utilizan modelos de lenguaje complejos como ChatGPT-4o para crear escenarios y mensajes de phishing muy sofisticados. Superando las barreras lingüísticas, la IA puede redactar un correo electrónico aparentemente auténtico basándose únicamente en información de las redes sociales. Incluso puede imitar el estilo de escritura de la víctima, lo que dificulta aún más la detección de la estafa.
Mientras tanto, la tecnología Deepfake se ha convertido en un problema para la ciberseguridad, a pesar de haber sido considerada anteriormente un producto de la investigación científica . Suplantar la identidad de celebridades para obtener beneficios económicos es el método más común; además, los estafadores utilizan Deepfake para robar cuentas y realizar llamadas fraudulentas a amigos y familiares de las víctimas con el fin de extorsionarles dinero.
Además de explotar la tecnología de IA para actividades ilegales, los ciberdelincuentes también pueden atacar los algoritmos de IA. Esto incluye ataques de "inyección de comandos", en los que se insertan comandos maliciosos en grandes modelos de lenguaje, incluso contraviniendo reglas previamente restringidas; y ataques adversarios, en los que se añaden campos de información ocultos a imágenes o audio para afectar las capacidades de clasificación de imágenes de los sistemas de aprendizaje automático.
La IA se integra cada vez más en todos los aspectos de la vida humana, desde Apple Intelligence y Google Gemini hasta Microsoft Copilot. Por lo tanto, abordar las vulnerabilidades de la IA debería ser una prioridad absoluta. Kaspersky lleva muchos años utilizando la tecnología de IA para proteger a sus clientes y socios, buscando continuamente vulnerabilidades en los sistemas de IA para aumentar su resiliencia e investigando activamente técnicas de ciberataque para proporcionar una protección fiable contra los ataques basados en IA.
Kim Thanh
Fuente: https://www.sggp.org.vn/nhieu-thach-thuc-cua-ai-trong-thoi-dai-moi-post754401.html






Kommentar (0)