¿Cuál es su evaluación de la tendencia de los piratas informáticos a “armar” la IA para llevar a cabo ciberataques y estafas?
Dr. Nguyen Tuan Khang: Según el informe X-Force Threat Intelligence Index 2024 de IBM, la región de Asia y el Pacífico , incluido Vietnam, estuvo entre las tres principales regiones del mundo en materia de ciberataques en 2023. El sector manufacturero fue el más afectado por estos incidentes de ciberataques.
La principal táctica empleada por actores maliciosos sigue siendo el phishing, dirigido a personas vulnerables y que explota vulnerabilidades para instalar malware. Además, una nueva tendencia emergente en 2024 son los ciberataques con inteligencia artificial (IA).
Un informe de Wired indica que muchos actores maliciosos están utilizando contenido generado por IA para ayudar a guiar intentos de piratería, crear chatbots fraudulentos o producir imágenes y videos falsos que imitan las caras y voces de otras personas utilizando tecnología Deepfake.
Sin embargo, junto con esta tendencia, los sistemas de seguridad de la información también están empezando a integrar funciones de IA, como WatsonX. La inteligencia artificial puede aprovecharse, pero también puede reemplazar a los humanos en el análisis, la monitorización, la identificación digital y la predicción de escenarios de ataque, mejorando así las capacidades defensivas y minimizando los riesgos para la seguridad de la información.
Las estafas deepfake son cada vez más comunes. Con el rápido desarrollo de la IA, ¿qué tan peligrosos serán estos ataques en el futuro?
Dr. Nguyen Tuan Khang: En esencia, Deepfake es una tecnología que permite a los hackers crear identidades digitales falsas, haciéndose pasar por otros. Deepfake será un problema peligroso porque esta tecnología es cada vez más sofisticada.
Para combatir los deepfakes, el primer paso es determinar si la imagen o la voz de alguien fue creada por IA. Actualmente, no existe una herramienta universal para detectar los deepfakes de inmediato, ya que los atacantes desarrollan constantemente nuevos modelos.
Además de identificar los deepfakes, otra técnica para combatirlos es usar tecnología para analizar el comportamiento. Desde una perspectiva organizacional o empresarial, es necesario desarrollar un sistema que combine ambas técnicas.
Recientemente, se han producido ciberataques en los que hackers instalan malware en secreto en los sistemas de una empresa. Este malware permanece latente, analizando toda la actividad y creando una identidad falsa para llevar a cabo sus fines maliciosos. Con el desarrollo de la tecnología Deepfake, sumada a las capacidades de creación de vídeos con IA, este tipo de ataques serán aún más peligrosos en el futuro.
Con la escalada de ciberataques Deepfake, ¿cómo podemos proteger a los ancianos, los niños y otros grupos vulnerables de los estafadores?
Dr. Nguyen Tuan Khang: Los estafadores suelen atacar a personas mayores y niños mediante una técnica llamada ingeniería social. Este término describe ataques que manipulan el comportamiento humano.
Los hackers ahora pueden usar la IA junto con la recopilación, explotación y análisis de datos para identificar a personas altamente susceptibles a las estafas y luego atacarlas. Además de concienciar a la población, debemos aceptar que ocurrirán situaciones en las que los usuarios sean estafados, y debemos usar la tecnología para detectar y prevenir tales incidentes.
Recientemente, un empleado bancario sospechó que una anciana estaba siendo estafada al realizar una transferencia de dinero. El empleado intervino de inmediato y reportó el incidente a las autoridades. Los sistemas informáticos de los bancos ahora necesitan tecnología que reemplace la intervención humana en estos casos.
La función de la tecnología es que, incluso si se sabe que el remitente es el legítimo propietario, el sistema tomará medidas para bloquear la transacción si sospecha manipulación por parte de terceros. Estas herramientas se denominan sistemas de prevención del fraude.
¿Es hora de que Vietnam implemente regulaciones para gestionar la IA, integrando la investigación, el desarrollo y el uso de la IA en un marco estructurado?
Dr. Nguyen Tuan Khang: La regulación de la IA se ha debatido durante mucho tiempo, pero aún existen muchos puntos controvertidos. Por ejemplo, el estacionamiento de mi barrio cuenta con un sistema de IA para el reconocimiento de matrículas, pero aún así se producen robos. Fue entonces cuando surgió el debate sobre quién tenía la culpa. ¿Debería responsabilizarse al propietario del edificio, al guardia de seguridad o al desarrollador del sistema de IA?
A partir de entonces, el edificio cambió su normativa, estableciendo que los residentes podían optar por usar el reconocimiento de matrículas con IA para mayor comodidad, pero debían asumir los riesgos. Quienes estuvieran de acuerdo podían usar las puertas automáticas, mientras que quienes no lo estuvieran debían aparcar sus coches de la forma tradicional. Necesitamos un sistema así.
De manera similar, IBM desarrolló un sistema de IA para prevenir el cáncer. Cuando el sistema prescribió medicamentos y el paciente los tomó, pero aun así no pudo salvarse, ¿fue culpa del médico o de la inteligencia artificial?
Creo que las regulaciones para la IA deben ser específicas y establecer claramente qué está permitido y qué no al desarrollar aplicaciones de IA. Para un mundo más seguro, la regulación más básica que podemos implementar es exigir la verificación biométrica de las grandes transferencias de dinero. En tal situación, las personas cuya identidad se haya visto comprometida podrían evitar por completo la pérdida de dinero.
Gracias señor.
[anuncio_2]
Fuente






Kommentar (0)