¿Qué opinas sobre la tendencia de los hackers a utilizar la IA como arma para llevar a cabo ciberataques y fraudes?
Dr. Nguyen Tuan Khang: Según el Índice de Inteligencia de Amenazas X-Force 2024 de IBM, Asia- Pacífico , incluido Vietnam, es la región que sufrirá más ataques cibernéticos en el mundo en 2023. De los cuales, la manufactura es la industria más afectada por los ataques cibernéticos.
El principal método de los cibercriminales sigue siendo el phishing, que se dirige a personas vulnerables y aprovecha las vulnerabilidades para instalar malware. Además, la tendencia emergente en 2024 son los ciberataques con inteligencia artificial (IA).
El informe de Wired señala que muchos delincuentes están usando IA generativa para guiar ataques, crear chatbots fraudulentos o crear imágenes y videos Deepfake que imitan las caras y voces de otras personas.
Sin embargo, junto con esta tendencia, los sistemas de seguridad de la información también están empezando a integrar funciones de IA, como WatsonX. La inteligencia artificial puede aprovecharse, pero también puede reemplazar a los humanos en el análisis, la monitorización, la identificación de números y la predicción de escenarios de ataque, mejorando así las capacidades de defensa y minimizando los riesgos de seguridad de la información.
Las estafas deepfake son cada vez más comunes. Con el rápido desarrollo de la IA, ¿qué tan peligrosos serán estos ataques en el futuro?
Dr. Nguyen Tuan Khang: En esencia, Deepfake es una tecnología que permite a los hackers crear identidades digitales falsas, haciéndose pasar por otros. Deepfake será un problema peligroso porque esta tecnología se está volviendo cada vez más sofisticada.
Para combatir los deepfakes, lo primero es determinar si la imagen o la voz de una persona son generadas por IA. Actualmente no existe una herramienta universal que pueda detectar deepfakes inmediatamente, ya que los atacantes desarrollan constantemente nuevos modelos.
Además de la detección de deepfakes, existe otra técnica para combatirlos: el uso de tecnología para analizar el comportamiento. Desde una perspectiva organizacional y empresarial, es necesario desarrollar un sistema que combine ambas técnicas.
Recientemente, se han producido ciberataques en los que hackers han instalado malware en secreto en los sistemas de las empresas. El malware acecha y analiza todas las actividades, creando así una identidad falsa para llevar a cabo acciones maliciosas. Con el desarrollo de la tecnología Deepfake, combinada con la capacidad de crear vídeos mediante IA, este tipo de ataques serán mucho más peligrosos en el futuro.
Con la escalada de ciberataques Deepfake, ¿cómo podemos proteger a los ancianos, los niños y otros grupos vulnerables de los estafadores?
Dr. Nguyen Tuan Khang: Los estafadores suelen atacar a personas mayores y niños mediante una técnica llamada ingeniería social. Este término describe ataques mediante la manipulación del comportamiento humano.
Los hackers ahora pueden usar la IA en combinación con la recopilación, minería y análisis de datos para identificar a personas susceptibles de ser estafadas y encontrar maneras de atacarlas. Además de concienciar a la comunidad, también debemos aceptar que las situaciones de estafa pueden ocurrir y debemos usar la tecnología para detectarlas y prevenirlas.
Recientemente, un empleado bancario sospechó que una anciana que acudió a transferir dinero presentaba indicios de haber sido estafada. Esta persona suspendió la transacción de inmediato y la denunció a las autoridades. Los sistemas informáticos de los bancos ahora cuentan con tecnología que permite reemplazar a los humanos en estas tareas.
La función de la tecnología es que, incluso si se sabe que el remitente es la persona real, el sistema detendrá la transferencia si se sospecha que la transacción está siendo manipulada por otra persona. Estas herramientas se denominan sistemas de prevención del fraude.
¿Es hora de que Vietnam aplique sanciones para gestionar la IA y poner la investigación, el desarrollo y el uso de la IA en un marco?
Dr. Nguyen Tuan Khang: El tema de la gestión de la IA se ha debatido durante mucho tiempo; sin embargo, aún existen muchas controversias. Por ejemplo, el estacionamiento de mi zona cuenta con un sistema de IA para reconocer matrículas, pero aun así se produjeron robos. En ese momento, surgió la controversia sobre quién era el responsable. ¿Debería ser responsable el propietario del apartamento, el guardia de seguridad o el desarrollador del sistema de IA?
Desde entonces, el edificio ha cambiado sus normas, estableciendo que los residentes pueden optar por usar IA para reconocer matrículas para mayor comodidad, pero deben aceptar los riesgos. Quienes acepten podrán usar las puertas automáticas; quienes no, tendrán que aparcar sus coches de la forma tradicional. Necesitamos sanciones como esta.
De manera similar, IBM desarrolló un sistema de IA para prevenir el cáncer. Cuando el sistema recetó un medicamento, pero el paciente lo tomó, pero aun así no pudo salvarse, ¿es culpa del médico o de la IA?
Creo que la regulación de la IA debe ser específica y establecer claramente qué se puede y qué no se puede hacer al desarrollar aplicaciones de IA. Para un mundo más seguro, la regulación más básica que podemos implementar es exigir que las grandes transferencias de dinero se reconozcan biométricamente. En tal situación, quienes pierdan su información de identidad podrán evitar por completo la pérdida de dinero.
Gracias.
[anuncio_2]
Fuente
Kommentar (0)