Llamadas fraudulentas deepfake: una estafa nueva y muy sofisticada
Un caso típico es el de la Sra. VTM (26 años, de Long Bien, Hanoi ), que recibió un mensaje de un familiar en el extranjero en Facebook pidiéndole que transfiriera 75 millones de VND a varias cuentas. En ese momento la señora VTM pensó que se trataba de algún familiar por lo que no dudó en transferir el dinero.
La Sra. VTM dijo que cuando recibió un mensaje pidiéndole dinero prestado a un familiar, volvió a llamar con cuidado para verificar y vio que la imagen era efectivamente de su amiga. La señora VTM confió y transfirió el préstamo. Pero un tiempo después, vi una publicación en la página personal de un familiar anunciando que su cuenta de Facebook había sido hackeada por un estafador para pedirle dinero prestado a algunos amigos y familiares. La Sra. VTM volvió a llamar a sus familiares y se dio cuenta de que había sido estafada.
O como la situación del Sr. VDC (42 años en Co Nhue, Hanoi), quien dijo que lo estafaron con 30 millones de VND mediante una videollamada Deepfake. En concreto, recientemente, un familiar que estaba en el extranjero me envió un mensaje de texto para pedirme dinero prestado por un asunto urgente. Inmediatamente después, la Sra. Tam recibió una videollamada a través de la aplicación Messenger de Facebook.
La llamada solo duró unos segundos, pero vi el rostro de mi ser querido y su forma familiar de dirigirse a él, pero la llamada era intermitente. Luego recibí un mensaje diciendo que la señal era débil y que no podía continuar la videollamada, así que cambié a mensajes de texto para mayor comodidad. Confié en él y transferí el dinero según las instrucciones, relató el Sr. VDC.
Al comentar sobre este tema, el experto en tecnología Ngo Minh Hieu, del Centro Nacional de Monitoreo de Seguridad Cibernética (NCSC), compartió que la tecnología de inteligencia artificial (IA) está ayudando mucho en la vida humana. Sin embargo, los malos han aprovechado la tecnología de IA para crear clones de voz, desde secuestrar cuentas de Facebook e Instagram... luego estudiar mensajes, formas de tratamiento, historial de transacciones... para crear llamadas falsas y estafar a familiares y parientes de la cuenta secuestrada, hasta llamar directamente a la víctima para crear situaciones urgentes que requieran transferencias de dinero.
“Después de apoderarse del Facebook de la víctima, el estafador le envió un mensaje de texto para pedirle dinero prestado, luego le hizo una videollamada proactiva con un video Deepfake y colgó unos segundos, luego dijo que perdió la señal de su teléfono... En este punto, la víctima confió en él y le transfirió el dinero porque la otra parte necesitaba pedir dinero prestado urgentemente”, comentó el experto en tecnología Ngo Minh Hieu.
El Sr. Ngo Tuan Anh, presidente de la junta directiva y director ejecutivo de Smart Cyber Security Joint Stock Company, explicó que el fraude en línea se divide actualmente en dos métodos principales: la suplantación de identidad de agencias de investigación y tribunales, y el aprovechamiento de la codicia, como la obtención de grandes recompensas y el lucro fácil. Con estas dos formas de fraude, existen diversos escenarios, incluyendo el de solicitar a los usuarios que verifiquen su información mediante una videollamada. Fue el estafador quien ideó esta "solución" para estafar a la víctima.
¿Cómo funciona el deepfake?
Según la Policía de la ciudad de Hanoi, Deepfake es una tecnología que aplica inteligencia artificial (IA) para crear productos de tecnología de audio, imagen y video que falsifican objetos de la vida real con mucha precisión.
Basándose en el archivo de imagen de la cara y la voz de una persona real, Deepfake utilizará algoritmos para recrear la cara y la voz para que coincidan con las características y expresiones faciales de otra persona; luego crea un vídeo completamente falso del sujeto de la vida real. A través de internet, los sujetos recopilan imágenes y voces de usuarios en redes sociales, utilizando tecnología Deepfake para crear animaciones y vídeos falsos de usuarios hablando en línea con la misma cara, tono de voz y forma de dirigirse.
El sujeto creó una cuenta falsa en una red social con la misma información y foto de perfil que el usuario, agregó a la víctima a su lista de amigos y envió mensajes para pedir dinero prestado según un escenario preexistente. En algunos casos, el sujeto secuestra las cuentas de redes sociales de los usuarios para enviar mensajes directos a las víctimas en su lista de amigos. Para ganarse la confianza de la víctima, el sujeto subió un video Deepfake existente al canal de videollamada, lo que le permitió a la víctima reconocer la imagen y la voz de un conocido y transferir dinero rápidamente según lo solicitado por el sujeto.
La policía de la ciudad de Hanoi agregó que con la tecnología Deepfake, los videos falsos tienen una alta precisión y es muy difícil distinguir entre reales y falsos. Sin embargo, los vídeos creados por el sujeto a menudo tienen un contenido general, no totalmente coherente con el contexto real de la comunicación con la víctima, lo que puede hacer que ésta sospeche y sea detectada. Para encubrir las deficiencias mencionadas, los sujetos a menudo crean vídeos con sonido difícil de escuchar e imágenes poco claras, similares a las videollamadas con señales inestables realizadas en áreas con cobertura móvil/wifi débil. Esta es una estafa muy nueva y muy sofisticada.
¿Cómo evitar el robo de datos faciales y de voz?
Según el experto en tecnología Ngo Minh Hieu, la mejor manera de evitar Deepfake es que los usuarios limiten el intercambio de imágenes o vídeos personales en línea; Al mismo tiempo, proteja siempre sus cuentas de redes sociales y correo electrónico con contraseñas seguras.
Si compartes videos o clips en línea, debes distorsionar tu voz y reemplazarla con una voz de robot o IA para evitar que los malos conozcan tu voz real.
Si Deepfake es falso, los usuarios deben notificar inmediatamente a todos e informar a las autoridades en canhbao.ncsc.gov.vn o informar al proyecto chongluadao https://chongluadao.vn; Al mismo tiempo, es necesario crear conciencia sobre el reconocimiento del fraude cibernético en: dauhieuluadao.com.
La Policía de la ciudad de Hanoi recomienda que la gente esté atenta al recibir mensajes o videollamadas pidiendo dinero a través de aplicaciones de redes sociales. Las personas deben mantener la calma cuando reciben mensajes o videollamadas pidiendo prestado o prestado dinero a través de aplicaciones de redes sociales, y luego llamar o comunicarse directamente con sus familiares para verificar (no llamar a través de aplicaciones de redes sociales como Zalo, Messenger, Viber, Telegram...). En caso de sospecha de suplantación de familiares en las redes sociales para defraudar o apropiarse de bienes, las personas deben reportarse inmediatamente a la agencia policial más cercana para recibir apoyo oportuno y combatir, prevenir y manejar estrictamente a los sujetos de acuerdo a la ley.
Al compartir cómo prevenir llamadas fraudulentas, el Sr. Ngo Tuan Anh señaló que las personas deben estar alerta y no hacer clic en enlaces extraños. Si transfiere dinero, hay una forma sencilla y efectiva de verificarlo: verifique la aplicación de banca por Internet del banco para ver si se muestra la información correcta de familiares y amigos al ingresar el número de cuenta antes de realizar la transferencia.
El experto en tecnología Ngo Minh Hieu dijo que una señal para reconocer y evitar las llamadas Deepfake es que el rostro del personaje en el video carece de emoción y es bastante "indiferente" al hablar, o la postura es incómoda, poco natural, o la dirección de la cabeza y el cuerpo del personaje en el video son inconsistentes entre sí.
Según las empresas de seguridad, Deepfake es un acrónimo de “deep” en “deep learning” y “fake”. El aprendizaje profundo es el uso de métodos de IA avanzados que aplican múltiples algoritmos para sintetizar gradualmente características avanzadas a partir de datos de entrada. A partir de ahí, esta tecnología es capaz de sintetizar y aprender de los datos que ingresan los usuarios, como rostros humanos, movimientos físicos y voces. Deepfake puede superponer la cara de una persona sobre otra en un vídeo con alta fidelidad. |
ESTILO DE OFICINA
[anuncio_2]
Fuente
Kommentar (0)