El 2 de febrero, el Sr. Nguyen Tien Dat, director general del Centro de Investigación AntiMalware de Bkav, dijo que incluso si haces una videollamada y ves la cara de un familiar o amigo y escuchas su voz, no necesariamente estás hablando con esa persona.
Nguyen Thanh Huong (el nombre del personaje ha sido cambiado) es un empleado de oficina en Hanoi . Durante una conversación con un amigo a través de Facebook Messenger, el amigo de Huong se despidió y terminó la conversación, pero de repente volvió a enviar mensajes de texto, pidiendo dinero prestado y sugiriendo transferir dinero a una cuenta bancaria.
Aunque el nombre de la cuenta coincidía con el nombre de su amiga, Huong seguía sospechando, por lo que solicitó una videollamada para verificar. El amigo aceptó inmediatamente, pero la llamada sólo duró unos segundos debido a la "inestabilidad de Internet", según la explicación del amigo. Al ver el rostro de su amiga en la videollamada, y la voz también era la de esta persona, Huong ya no dudó y transfirió el dinero. Sin embargo, solo después de que la transferencia de dinero fue exitosa, Huong se dio cuenta de que había caído en la trampa del hacker.
Muchas personas han sido víctimas de estafas financieras que utilizan Deepfake e involucran IA (Inteligencia Artificial) en los últimos tiempos.
No sólo Huong, muchas otras víctimas que son amigos y familiares de Huong también fueron engañados de la misma manera. La cantidad de dinero que los malos pueden estafar desde este tipo de cuentas de Facebook llega a decenas de millones de dongs.
En la segunda mitad de 2023, Bkav recibió continuamente informes y solicitudes de ayuda de víctimas sobre casos de fraude similares. Según los expertos de Bkav, en el caso de Huong, los malhechores tomaron el control de la cuenta de Facebook, pero no lo tomaron completamente de inmediato, sino que la siguieron en secreto, esperando una oportunidad para hacerse pasar por una víctima y pedir dinero prestado a sus amigos y familiares.
Usan IA para crear un vídeo falso de la cara y la voz del propietario de la cuenta de Facebook (Deepfake). Cuando se les pidió que hicieran una videollamada para autenticarse, aceptaron la llamada, pero luego se desconectaron rápidamente para evitar ser detectados.
Según el Sr. Nguyen Tien Dat, del Centro de Investigación AntiMalware de Bkav, la capacidad de recopilar y analizar datos de los usuarios a través de la IA permite la creación de sofisticadas estrategias de fraude. Esto también significa que la complejidad de los escenarios de fraude al combinar Deepfake y GPT aumentará, lo que hará que la detección del fraude sea más difícil.
Bkav recomienda a los usuarios estar especialmente atentos, no facilitar información personal (CCCD, cuenta bancaria, código OTP...), no transferir dinero a desconocidos vía teléfono, redes sociales, sitios web con indicios de fraude.
Cuando se realiza una solicitud de préstamo/transferencia de dinero a una cuenta a través de redes sociales, se deben utilizar otros métodos de autenticación, como llamar o utilizar otros canales de comunicación para reconfirmar.
[anuncio_2]
Fuente: https://nld.com.vn/canh-bao-su-dung-ai-tao-hinh-anh-va-giong-noi-gia-mao-de-lua-tien-196240202191252818.htm
Kommentar (0)