En mayo de 2024, gigantes tecnológicos de renombre mundial se sucedieron en el lanzamiento de nuevas versiones de inteligencia artificial (IA), como OpenAI con GPT-4o, Google con Gemini 1.5 Pro, con numerosas funciones "superinteligentes" añadidas para optimizar la experiencia del usuario. Sin embargo, es innegable que esta tecnología está siendo utilizada por ciberdelincuentes en numerosos escenarios de fraude en línea.
Riesgo creciente
En un taller reciente, el viceministro de Información y Comunicaciones, Pham Duc Long, señaló que los ciberataques aumentan constantemente, con una sofisticación y complejidad cada vez mayores. En particular, con el apoyo de la IA, los riesgos a los que se enfrentan los usuarios aumentarán exponencialmente. «Los ciberdelincuentes utilizan la tecnología de IA para crear fácilmente nuevo malware y nuevos y sofisticados ataques de phishing...», advirtió el viceministro Pham Duc Long.
Según un informe del Departamento de Seguridad de la Información del Ministerio de Información y Comunicaciones, los riesgos de ciberseguridad relacionados con la IA han causado daños por más de 1.000 billones de dólares a nivel mundial, de los cuales entre 8.000 y 10.000 billones de VND solo en Vietnam. El uso más común hoy en día es la falsificación de voces y rostros con fines fraudulentos. Se prevé que para 2025 se produzcan unos 3.000 ataques por segundo, 12 malware por segundo y 70 nuevas vulnerabilidades y debilidades al día.
Según el Sr. Nguyen Huu Giap, director de BShield, empresa especializada en soporte de seguridad para aplicaciones, crear imágenes y voces falsas no es difícil gracias al avance de la IA. Los estafadores pueden recopilar fácilmente datos de los usuarios a partir de información pública que publican en redes sociales o mediante trucos como entrevistas de reclutamiento en línea o llamadas telefónicas en nombre de "autoridades". En una simulación realizada por BShield, a partir del rostro disponible mediante una videollamada , los estafadores pueden introducirlo en el CCCD, insertarlo en el cuerpo de una persona en movimiento para engañar a la herramienta eKYC y que el sistema lo reconozca como una persona real.
Los métodos fraudulentos que utilizan tecnología deepfake están aumentando y se vuelven más sofisticados. Foto: LE TINH
Desde la perspectiva del usuario, el Sr. Nguyen Thanh Trung, especialista en TI de Ciudad Ho Chi Minh, teme que cibercriminales puedan aprovechar chatGPT para crear correos electrónicos fraudulentos con contenido y estilo de escritura similares a los correos electrónicos reales de bancos u organizaciones de renombre. Es probable que estos correos electrónicos contengan malware adjunto; si los usuarios hacen clic en ellos, sus datos serán robados y sus activos serán apropiados. "El software de inteligencia artificial está mejorando cada vez más; puede crear videos falsos con rostros y voces que son 95% similares a las de personas reales. Los gestos cambian en tiempo real, lo que dificulta mucho su detección", afirmó el Sr. Trung.
Corredor legal completo pronto
Para limitar el riesgo de fraude tecnológico, el experto en seguridad Pham Dinh Thang señaló que los usuarios deben actualizar periódicamente sus conocimientos sobre IA y evitar hacer clic en enlaces de origen desconocido. Las empresas deben asignar un presupuesto para garantizar la seguridad de los datos y el funcionamiento del sistema. El personal de la empresa también debe recibir capacitación exhaustiva para acceder a las vulnerabilidades reales del sistema, lo que aumenta su capacidad para identificar los tipos de ciberataques.
El Sr. Ta Cong Son, Jefe del Departamento de Desarrollo de IA - Proyecto Antifraude, afirmó que la IA se ha integrado profundamente en la vida de los usuarios y en las operaciones de empresas, agencias y unidades gracias a sus funciones de soporte extremadamente inteligentes. Cabe destacar que la tecnología de IA ahora es muy accesible y fácil de usar, lo que creará las condiciones para que los delincuentes la aprovechen fácilmente para cometer fraudes. "Los estafadores también cambian constantemente sus métodos de ataque, por lo que los usuarios deben actualizar la información periódicamente para saber cómo prevenirlos", recomendó el Sr. Son.
Según los expertos, los modelos GPT-4o y Gemini 1.5 Pro, recientemente actualizados, han demostrado que la inteligencia artificial es ilimitada. Por lo tanto, además de animar a las empresas a desarrollar herramientas y soluciones antifraude con IA, las agencias de gestión deben completar pronto el proceso legal de la IA para mantenerse a la vanguardia de esta tendencia.
El Teniente Coronel Nguyen Anh Tuan, Subdirector del Centro Nacional de Datos de Población, afirmó que es necesario emitir pronto documentos que regulen la ética y las responsabilidades de los proveedores de servicios nacionales y extranjeros en el proceso de desarrollo, producción, aplicación y uso de la IA. Asimismo, deben existir regulaciones específicas sobre estándares técnicos para los sistemas que utilizan, aplican, conectan y prestan servicios de IA. "Es necesario investigar y aplicar proyectos de IA para combatir los riesgos de la IA. Dado que la IA es creada por humanos y producto del conocimiento, existirán variantes de "IA buena" e "IA mala", por lo que es posible prevenir el desarrollo de la inteligencia artificial mediante la propia inteligencia artificial", señaló el Teniente Coronel Tuan.
Desafíos de la ciberseguridad
El Teniente Coronel Nguyen Anh Tuan reconoció que la IA plantea desafíos para la seguridad de la red. En consecuencia, software malicioso con soporte de IA puede instalarse en archivos de documentos; cuando los usuarios suben documentos, este código malicioso penetra en el sistema. Además, mediante tecnologías especiales de IA, los hackers pueden simular el sistema y aprovechar las vulnerabilidades de seguridad. La IA puede crear numerosas aplicaciones con imágenes, nombres falsos de aplicaciones y sitios web del Ministerio de Seguridad Pública para que los usuarios las descarguen, instalen y proporcionen información como el número de identificación y la contraseña de inicio de sesión. "La IA también desarrollará su propio software, malware híbrido entre diversas líneas de malware, con mecanismos de evasión de seguridad más sofisticados y modificando automáticamente códigos fuente flexibles", advirtió el Teniente Coronel Nguyen Anh Tuan.
[anuncio_2]
Fuente: https://nld.com.vn/toi-pham-mang-co-them-bi-kip-tu-ai-196240601195415035.htm
Kommentar (0)