
Cada vez se publican más imágenes y vídeos editados y añadidos por IA en las redes sociales para atraer visitas. - Foto: DUC THIEN
Si antes, para crear una foto falsa, los usuarios normales tenían que contratar a expertos en Photoshop, hoy en día, con la IA, en menos de 5 minutos y con algunas habilidades básicas, puede aparecer un conjunto de fotos falsas en todas partes.
Cuando la IA crea imágenes, vídeos, canciones... tan reales que cuesta creerlo
Hoan My (HCMC), empleada del departamento de comunicaciones y usuaria habitual de Facebook, afirmó que cada vez hay más contenido publicado por los usuarios con la intervención de herramientas de IA.
«Hay muchas fotos publicadas por amigos o miembros del grupo que son tan reales que no podría saber si se usó IA si no lo dijeran. Incluso cada vez más videos, desde animaciones e imaginaciones hasta cortometrajes o videos relacionados con un evento de la vida real, se crean con herramientas de IA, pero no podría saberlo», compartió la Sra. My.
No solo imágenes y vídeos, sino también en YouTube, existen numerosas canciones interpretadas o compuestas por cantantes generados por IA. Muchos usuarios están entusiasmados con esta nueva experiencia y compiten por compartirla con sus amigos en las redes sociales.
"No puedo saber si se trata de un cantante generado por IA si no se anuncia. El contenido generado por IA está cada vez más extendido en el ciberespacio de Vietnam. Los usuarios comunes como yo probablemente pronto ya no sabremos qué contenido proviene de personas reales, qué contenido proviene de IA o tiene intervención de IA", dijo Khanh Ha (HCMC).
Recientemente, muchas plataformas de redes sociales en Vietnam han publicado videos y transmisiones en vivo de personas con discapacidad que venden productos, lo que ha generado una comunidad en línea más comprensiva y solidaria.
Sin embargo, posteriormente, la comunidad en línea denunció numerosos casos de uso de IA para simular discapacidades en personas sin discapacidad. El objetivo de este engaño es aprovecharse de la compasión de los usuarios para vender productos o cometer fraudes.
Muchos expertos en tecnología afirman que, recientemente, las redes sociales han visto un aumento en el número de cuentas que publican videos publicitarios con imágenes de personas con discapacidad, enfermas o en situación de vulnerabilidad para generar compasión. Sin embargo, la realidad es que gran parte de este contenido se crea o edita con herramientas de inteligencia artificial, transformando a personas normales en personas con discapacidad con fines lucrativos o fraudulentos.
En declaraciones a Tuoi Tre, Milko Radotic, vicepresidente a cargo de la región Asia- Pacífico de iProov, proveedor líder mundial de tecnología de autenticación biométrica, advirtió: «Nuestra investigación muestra que el 99,9 % de los participantes no pueden reconocer los deepfakes. Incluso las herramientas de detección avanzadas actuales se enfrentan a numerosas dificultades».
Aumentar la resistencia para los usuarios digitales
El Sr. Dang Huu Son, subdirector del Instituto de Investigación Aplicada y Desarrollo de Recursos Humanos AIOV, fundador y director ejecutivo de la empresa de IA LovinBot, afirmó que desde que Google lanzó la tecnología de IA Nano Banana y Veo 3; ByteDance lanzó Seedream 4, y antes de eso OpenAI lanzó GPT Image, el mercado de la IA ha estado extremadamente activo y también ha traído consigo muchas consecuencias.
"La tecnología nunca ha sido tan accesible como lo es hoy. Se trata de modelos de IA extremadamente potentes que pueden 'copiar rostros' en casi un 90%, incluso un 99%, en comparación con la foto original", comentó el Sr. Son.
Si antes, para crear una foto falsa, los usuarios normales tenían que contratar a expertos en Photoshop, hoy en día, con la IA, en menos de 5 minutos y con algunos conocimientos básicos, un conjunto de fotos falsas, un vídeo falso que se corta y pega, y al que se le añaden efectos similares a los de las noticias, puede difundirse a una velocidad vertiginosa.
“Las noticias falsas se repiten muchas veces, con gran densidad y fácil acceso, por lo que una gran cantidad de personas que entran en contacto con ellas todos los días las creerán ciertas. Por lo tanto, se necesitan soluciones para limitar los problemas mencionados”, señaló el Sr. Son.
Según Trinh Nguyen Thien Phuoc, director de tecnología de Gianty Vietnam Company, para poder distinguir el contenido generado por IA se necesitan tres capas: (1) habilidades de verificación de usuarios (junto con reglas de oro); (2) herramientas técnicas como credenciales de contenido (C2PA), marcas de agua (SynthID, AudioSeal) y detectores de deepfakes; (3) coordinación entre las partes involucradas, como plataformas, operadores de red y bancos.
En particular, la regla de oro debe aplicarse muy rápidamente, en un plazo de 30 a 60 segundos, e incluye: no hacer clic en enlaces extraños y acudir a la aplicación o sitio web oficial para verificar; detenerse inmediatamente al encontrar palabras clave que obliguen a actuar (OTP/transferencia de dinero/urgente).
Al mismo tiempo, los usuarios deben verificar con dos fuentes independientes antes de creer; comprobar la fecha, la hora y el contexto (noticias antiguas disfrazadas de nuevas); llamar al número oficial que hayan encontrado, no usar el número proporcionado por otros; con imágenes y vídeos, los usuarios pueden buscar resultados relacionados...
Muchos expertos creen que la solución más fundamental para afrontar la oleada de contenido falso generado por la IA es concienciar a la población. En lugar de centrarse únicamente en medidas técnicas, es necesario desarrollar programas de formación, concursos o simulaciones de situaciones reales para ayudar a las personas a modificar sus hábitos de consumo de información.
Para los jóvenes, especialmente los estudiantes, combinar concursos en línea, campañas mediáticas con celebridades o líderes de opinión clave puede generar un interés natural, ayudándoles a aprender y experimentar mientras desarrollan las habilidades para identificar noticias y vídeos falsos. Por otro lado, las personas mayores, sobre todo en zonas rurales, necesitan formatos más familiares e intuitivos, como folletos ilustrados, vídeos instructivos o proyecciones en centros culturales y actividades comunitarias.
«Un enfoque adaptado a cada grupo de personas ayudará a crear una base sólida de concienciación a largo plazo, en lugar de limitarse a actividades puntuales. Por ejemplo, algunas unidades han desarrollado extensiones que se pueden instalar en el navegador Chrome para ayudar a los usuarios a verificar las noticias mientras navegan por internet o las redes sociales...», compartió el Sr. Dang Huu Son.
Utilizar la IA para detectar IA falsa
Recientemente, Honor ha integrado la función de detección de deepfakes mediante IA en su nueva línea de teléfonos. Esta función analiza imágenes y voces en tan solo 3 segundos para alertar sobre falsificaciones directamente en aplicaciones como Messenger, Zalo, Viber o Google Meet, convirtiéndose en un escudo digital que protege a los usuarios de estafas sofisticadas.
Anteriormente, en septiembre de 2025, MoMo anunció su cooperación con iProov para implementar la tecnología Dynamic Liveness para ayudar a verificar que los usuarios son reales, tienen la identidad correcta y están presentes en el momento de la transacción, evitando el fraude mediante deepfake, videos o imágenes falsos.
En sectores de alto riesgo como el financiero, este nivel de seguridad es crucial para prevenir el fraude, evitar el acceso no autorizado y mantener la confianza de los usuarios en la plataforma.
Fuente: https://tuoitre.vn/tu-hinh-anh-video-den-ca-khuc-ai-can-trong-con-loc-noi-dung-ai-tren-mang-xa-hoi-20251109232702736.htm






Kommentar (0)