Según los expertos en seguridad, las estafas que utilizan la tecnología Deepfake son muy peligrosas, pero existen formas para que los usuarios reconozcan los vídeos que utilizan esta tecnología de inteligencia artificial, evitando así ser engañados por malos.
El riesgo de una ola de fraude utilizando la tecnología Deepfake
En una advertencia emitida el 24 de marzo, la Policía Provincial de Tuyen Quang informó que recientemente apareció en el ciberespacio un método muy sofisticado de fraude y apropiación de bienes. Se trata de estafadores que utilizan tecnología Deepfake (tecnología que aplica inteligencia artificial para crear productos de audio, imagen y video que imitan a sujetos reales con gran precisión) para realizar videollamadas falsas y pedir dinero prestado a familiares, hacerse pasar por estudiantes extranjeros que llaman a sus padres para pedirles transferencias para pagar la matrícula, o crear situaciones de emergencia, como accidentes familiares que requieren dinero urgente para tratamientos médicos.
En los últimos días, la policía de otras localidades como Hanoi y Thai Nguyen ha seguido advirtiendo sobre trucos fraudulentos para apropiarse de activos en Internet utilizando la tecnología Deepfake.
La policía de varias provincias y ciudades ha emitido advertencias sobre fraudes con tecnología Deepfake. (Foto ilustrativa: Internet)
En una ponencia en el taller sobre “Ciberseguridad en el espacio digital: tendencias y oportunidades” organizado por el Instituto Tecnológico de Correos y Telecomunicaciones (PTIT) el 27 de marzo, el experto Ngo Minh Hieu, cofundador del proyecto ChongLuaDao.vn y Threat Hunter, Centro Nacional de Monitoreo de Seguridad Cibernética dijo que los videos Deepfake acaban de aparecer en Vietnam, pero de hecho, esta técnica de fraude y falsificación basada en IA ha sido aplicada por grupos criminales internacionales durante aproximadamente 2-3 años.
El experto Ngo Minh Hieu también analizó que existen numerosas herramientas en internet para ayudar a quienes crean videos deepfake. En el futuro, cuando los ciberdelincuentes en Vietnam sepan más sobre cómo robar videos e imágenes, copiarlos y pegarlos, y luego usar herramientas en línea para crear deepfake, se producirá una ola de fraude de la generación 4.0, que convertirá a muchas personas que durante mucho tiempo han sido difíciles de engañar en víctimas.
“Las personas de mediana edad y mayores son las más vulnerables a las estafas porque carecen de conocimientos sobre seguridad de la información y la tecnología y tienen dificultades para reconocer este tipo de estafa sofisticada”, añadió el experto Ngo Minh Hieu.
El experto Ngo Minh Hieu compartió con los estudiantes del PTIT sobre las formas de fraude, incluido el fraude mediante Deepfake.
Al hablar sobre este tema, el director técnico de NCS, Vu Ngoc Son, afirmó que las aplicaciones deepfake son cada vez más populares, e incluso generan preocupación por la posibilidad de perder el control. Inicialmente, estas aplicaciones se crearon con el propósito de "cambiar rostros" para que los usuarios pudieran reemplazar fácilmente sus rostros y voces con personajes de películas famosas. Puede considerarse el siguiente paso en la tendencia de edición de fotos y doblaje humorístico de clips que causó furor en el pasado.
Sin embargo, los estafadores se han aprovechado de las aplicaciones Deepfake para crear vídeos con contenido fraudulento y de suplantación de identidad. Muchas personas han perdido dinero porque creían que sus familiares, colegas y líderes las llamaban para pedirles que les transfirieran dinero. Esta tecnología se está utilizando con fines aún más dañinos, por lo que últimamente, al mencionar Deepfake, la gente suele pensar en herramientas maliciosas.
Cómo evitar estafas con tecnología Deepfake
En cuanto a la prevención, el experto Vu Ngoc Son analizó que, debido a que la capacidad de procesamiento de las aplicaciones Deepfake aún no es perfecta, los clips creados con esta tecnología suelen tener poca capacidad, corta duración y baja calidad de sonido e imagen. Lo más notable es que el rostro se ve bastante rígido y menos emotivo. El cuerpo del personaje en Deepfake también se mueve menos, especialmente menos boca arriba o boca abajo en comparación con los clips normales, y no se frota ni se cubre la cara, ya que la IA gestiona los errores cuando la cara está parcialmente cubierta. Por lo tanto, si prestas mucha atención, puedes detectarlo.
“Los usuarios no deben confiar en clips cortos, de baja calidad, borrosos, poco claros, con poca expresión facial, poco movimiento corporal, caras que no estén giradas hacia los lados, voces que no sean suaves o demasiado monótonas y que no tengan pausas”, recomienda el experto Vu Ngoc Son.
El experto de NCS Company también afirmó que lo más importante es que los usuarios estén atentos. En concreto, desconfíen si reciben clips cortos o videollamadas con mala calidad de imagen o sonido; vuelvan a comprobarlo llamando directamente con un teléfono normal; pidan a la persona que llama que se ponga la mano en la cara o que gire a la izquierda o a la derecha; hablen lo más posible con la persona que llama para asegurarse de que la llamada sea real y no se trate de un video pregrabado. En particular, no deben transferir dinero ni enviar información a direcciones o cuentas desconocidas.
Compartiendo la misma opinión, el experto Ngo Minh Hieu recomienda que, para evitar ser estafado, los usuarios estén alerta y atentos. Si alguien en redes sociales, en tu lista de amigos, te pide dinero prestado o te envía un enlace desconocido, no te precipites, mantén la calma, revisa y verifica de nuevo.
Los usuarios pueden autenticarse proactivamente llamando directamente o por FaceTime durante al menos un minuto y luego simulando hacer preguntas personales que solo ustedes y la otra persona conocen. Esto se debe a que Deepfake no podrá falsificar una conversación real en tiempo real con alta precisión, aconsejó el experto Ngo Minh Hieu.
Según VNN
[anuncio_2]
Fuente
Kommentar (0)