Se trata de delincuentes que utilizan inteligencia artificial para editar rostros y cuerpos de personas normales, convirtiéndolas en personas con discapacidad y creando historias conmovedoras para vender productos o solicitar donaciones. Su único objetivo es aprovecharse de la compasión de la comunidad para obtener ganancias ilícitas.

Trucos sofisticados
Un caso típico que provocó indignación pública fue el del canal de TikTok llamado NL, que publicó una serie de videos sobre una mujer con ambos brazos amputados que intentaba vender productos en línea para mantener a sus hijos pequeños. En los videos, la mujer aparecía en una habitación sencilla, vestida con ropa simple, usando su brazo amputado para presentar los productos, lo que conmovió a los espectadores. Muchas personas no dudaron en seguirla, compartir el contenido e incluso comprar productos para ayudarla a superar sus dificultades. Sin embargo, cuando los videos se viralizaron, la comunidad en línea se dio cuenta de que en realidad se trataba de la imagen de una vendedora común y corriente que había sido editada con tecnología de inteligencia artificial para que pareciera una persona con discapacidad real.
El truco de apelar a la lástima se ha convertido en una trampa que lleva a muchas personas a transferir dinero o hacer pedidos porque creen que están ayudando a una persona débil y desfavorecida. El Sr. Dang Minh Quang, de la calle Ngoc Lam, barrio Bo De ( Hanói ), comentó: «Mi madre creyó en el vídeo de una mujer con un brazo amputado que vendía productos, así que sintió lástima y le encargó algunos artículos. Cuando supo la verdad, que la persona discapacitada era solo una imagen creada por IA, se sintió muy triste y ofendida».
La historia de la madre de Quang no es un caso aislado. Cientos de personas han sido engañadas de forma similar. Cuando se abusa de la bondad, la gente pierde gradualmente la fe y se muestra reticente ante las verdaderas peticiones de ayuda. La dolorosa consecuencia es que las personas vulnerables sufren graves daños. En su perfil personal de Facebook, Nguyen Sin compartió el caso de la Sra. Tran Thi Nga (de 36 años, residente en la provincia de Phu Tho ), dueña del canal "Nga Tic Cuc", quien padece una discapacidad (a finales de 2024, debido a una miocarditis aguda, se vio obligada a amputarse brazos y piernas para salvar su vida), conocida por inspirar a muchos con su optimismo y espíritu de lucha. Sin embargo, tras la aparición de numerosos casos de suplantación de identidad de personas con discapacidad mediante inteligencia artificial, la Sra. Nga fue sospechosa de utilizar dicha tecnología para suplantar la identidad de personas con discapacidad.
En transmisiones en vivo recientes, la Sra. Nga se sintió muy molesta en repetidas ocasiones cuando algunos usuarios de redes sociales le pidieron insistentemente que “levantara la mano” o “gateara” para demostrar su discapacidad. Estas peticiones irracionales y crueles la hirieron profundamente. La historia de “Active Nga” es un testimonio desgarrador del daño que puede causar el abuso de la tecnología.
habilidades de reconocimiento de contenido falso generado por IA
Según el Ministerio de Seguridad Pública, en 2024 Vietnam registró más de 6.000 casos de fraude en línea, con pérdidas estimadas en unos 12 billones de VND. En tan solo ocho meses de 2025, se detectaron cerca de 1.500 casos de fraude en línea. Esta cifra refleja claramente el alarmante nivel de los delitos informáticos en un país con más de 78 millones de usuarios de internet y 72 millones de usuarios de redes sociales. El ciberespacio se está convirtiendo en un terreno fértil para técnicas de fraude cada vez más sofisticadas, donde el uso de inteligencia artificial para crear contenido falso representa la mayor amenaza en la actualidad.
Ante esta alarmante realidad, las autoridades y los expertos en ciberseguridad recomiendan que la población se capacite para identificar contenido falso. El subsecretario de la Unión de Jóvenes de la Policía del Distrito de Long Bien (Hanói), Nguyen Nhat Ha, señaló que es fundamental monitorear regularmente las fuentes oficiales de información y mantenerse al día sobre tecnología y nuevas formas de fraude. En particular, deben estar siempre alerta y recordar los principios básicos: verificar cuidadosamente las fuentes de información, no proporcionar información personal a fuentes no verificadas, no acceder a enlaces sospechosos y no transferir dinero a cuentas no verificadas.
Para identificar vídeos generados por IA, según expertos en ciberseguridad, los usuarios deben observar con atención los detalles de la imagen, los movimientos faciales, las extremidades y los sonidos. Signos como la mirada perdida, movimientos antinaturales, retraso en el habla o movimientos labiales descoordinados suelen indicar la presencia de la tecnología Deepfake.
Además, consultar la información publicada por el canal, leer los comentarios y revisar el historial de actividad son formas sencillas de evaluar su fiabilidad. Asimismo, es importante que los usuarios adquieran el hábito de verificar antes de creer. Por muy emotivo que sea un vídeo, no debe compartirse ni apoyarse precipitadamente.
Los expertos también instaron a las plataformas de redes sociales a reforzar la censura, identificar el contenido que utiliza IA para suplantar la identidad de personas con discapacidad y sancionar con rigor las cuentas infractoras. Asimismo, las autoridades deben emitir pronto una normativa clara sobre el uso de imágenes y contenido generados por IA, garantizando que esta tecnología no se convierta en una herramienta para conductas ilícitas por parte de personas malintencionadas.
Fuente: https://hanoimoi.vn/dung-ai-gia-nguoi-khuet-tat-de-truc-loi-canh-giac-chieu-lua-moi-722565.html






Kommentar (0)