Los malos pueden usar IA para combinar fotos y vídeos sensibles para difamar y chantajear a otros - Foto: Dibujo de IA
En el pasado, cuando se hablaba de la técnica de cortar y pegar la cara de una persona en el cuerpo de otra, a menudo se utilizaba Photoshop o un software de edición de fotografías especializado, que era laborioso y fácilmente reconocible a simple vista.
Ahora, con herramientas de inteligencia artificial, las personas pueden hacerlo muy fácilmente después de "unas cuantas notas", pero no es fácil de detectar a simple vista.
Vídeo sexual con intercambio de caras para chantaje
Debido a conexiones laborales, el Sr. H. (director de una empresa en Ciudad Ho Chi Minh) interactúa a menudo en las redes sociales.
Una vez, una joven se hizo amiga suya y le preguntó por su trabajo. Tras un tiempo de charlar, hablar y compartir sobre su trabajo y su vida personal, se hicieron muy amigos.
También hubo muchos mensajes de texto entre ambos con palabras muy emotivas, junto con imágenes enviadas de ida y vuelta y videollamadas para verse.
Un día, el Sr. H. recibió repentinamente una llamada de un hombre que decía ser el esposo de la joven. Tras un ataque preventivo contra el Sr. H., el "esposo" le exigió que le transfiriera una indemnización si no quería que las fotos de las conversaciones y los videos sexuales entre ambos se enviaran a familiares y parejas.
Luego, el "marido" del Sr. H. le mostró un video sexual de él y la otra chica, junto con un video de la llamada entre los dos y mensajes de texto íntimos capturados...
"Nunca he conocido a esa chica, así que estoy seguro de que el vídeo sexual es una versión retocada con Photoshop", afirmó el Sr. H. Sin embargo, la imagen del rostro de la chica en el vídeo sexual y la de la chica en su videollamada son la misma, junto con una foto del mensaje de texto cariñoso, lo que obligó al Sr. H. a transferir dinero a su "marido" en repetidas ocasiones para preservar su reputación.
Gracias a la investigación de Tuoi Tre , el Sr. H. fue estafado de forma organizada según un escenario perfecto. En esta estafa, el Sr. H. fue engañado dos veces mediante deepfake. La primera fue una videollamada y la segunda un video sexual.
Cabe destacar que, en el video sexual, el rostro del Sr. H. fue injertado con tanta habilidad que a los espectadores les costó creer que se tratara de un video de injerto facial. Un experto en IA confirmó a Tuoi Tre que los delincuentes usaron una nueva herramienta de IA que podía injertar rostros en los videos a la perfección... como si fueran reales.
Abundan las herramientas de IA para intercambiar rostros
Actualmente existen muchas herramientas de aplicación de IA que tienen funciones como crear cualquier persona con la cara deseada y fusionar la cara deseada con el cuerpo de otra persona.
Entre ellas, hay herramientas con funciones que sirven para malos propósitos, como convertir fotos normales en fotos de desnudos "quitando" a la persona de la foto, o reemplazar la cara de una persona en los videos con una cara deseada...
La mayoría de estas herramientas de IA están disponibles para prueba, pero al pagar por ellas obtendrá funciones completas con un tiempo de transformación muy rápido.
Por ejemplo, con la función de fusionar caras con los cuerpos de otras personas, los usuarios solo necesitan cargar dos fotos correspondientes y esperar unos segundos para obtener los resultados.
O con la función de crear fotos de desnudos a partir de fotos normales, la herramienta de IA puede hacerlo muy rápidamente, en solo unas pocas decenas de segundos, dejando a los espectadores sorprendidos.
Incluso la función de reemplazar caras en videos de sexo, la herramienta de IA lo hace muy rápidamente, tomando menos de un minuto para videos que duran unos pocos segundos.
Hablando con Tuoi Tre , el Sr. Nguyen Kim Tho, jefe del equipo de investigación y desarrollo de la empresa de ciberseguridad VNetwork, analizó el término deepfake utilizado para referirse a videos e imágenes falsos creados por IA para hacer creer a los espectadores que son reales.
La tecnología Deepfake utiliza modelos de aprendizaje profundo, como redes neuronales, para analizar los datos faciales y de voz de una persona y crear contenido falso que se parece exactamente a esa persona.
"Gracias a poderosos algoritmos, los malos pueden poner la cara de la víctima en vídeos sensibles (por ejemplo, vídeos de "cama", pornografía) o editar imágenes para crear fotos de desnudos falsas.
"El software y las aplicaciones deepfake son ahora muy populares en Internet, incluso con aplicaciones móviles, código fuente abierto o servicios en línea gratuitos, lo que facilita que cualquiera acceda a herramientas para crear videos y fotos falsos, por lo que las personas deben estar alerta", dijo el Sr. Tho.
Manténgase alejado del "chat sexual"
Muchas estafas empiezan haciendo amigos en línea y luego engañan a la víctima para que participe en un "chat sexual" o envíe fotos sensibles. Por lo tanto, los usuarios nunca deben enviar fotos o vídeos privados a personas que solo conocen en línea, por mucho que prometan o amenacen.
Recuerda siempre que cualquier contenido compartido (incluso vía mensajes privados) puede ser grabado (captura de pantalla, vídeo) y luego editado y utilizado en tu contra.
Si realiza una videollamada, tenga cuidado con los desconocidos que le pidan contenido sensible: podría ser una pantalla falsa o que estén grabando.
Los expertos en ciberseguridad aconsejan a los usuarios que nunca confíen en nadie solo a través del contacto en línea y que verifiquen la identidad y las intenciones de la otra persona antes de compartir algo sensible.
Además, si recibes un mensaje o una llamada amenazando con publicar fotos "calientes" para chantajear a los usuarios, no deben tener miedo y apresurarse a transferir dinero.
Pagar no garantiza que los malos eliminen el video; de todos modos, pueden seguir exigiendo más o publicar el contenido en línea, dicen los expertos.
En lugar de seguir las solicitudes de los delincuentes, los usuarios deben recopilar evidencia (mensajes, números de teléfono, cuentas de contacto, contenido amenazante...) e informar inmediatamente a la agencia policial más cercana o informar el incidente a través de la aplicación VNeID del Ministerio de Seguridad Pública para recibir apoyo oportuno.
¿Cómo identificar?
Según Nguyen Kim Tho, distinguir entre imágenes y vídeos reales y deepfakes es cada vez más difícil, pero todavía existen algunos signos identificatorios y herramientas de apoyo.
Los usuarios pueden observar manualmente, porque el contenido deepfake a veces presenta anomalías visuales y de audio.
Por ejemplo, las imágenes compuestas pueden mostrar ruido y diferencias de color entre el rostro compuesto y el cuerpo. Los videos falsos pueden presentar discrepancias entre el audio y el video (movimientos labiales que no coinciden con el habla) o expresiones faciales rígidas y poco naturales.
Anteriormente, algunos videos deepfake hacían que los personajes no parpadearan o que la iluminación y las sombras en la cara no coincidieran con el contexto, lo que eran señales de que el video había sido editado.
Aunque la tecnología está mejorando (los nuevos deepfakes, por ejemplo, han añadido movimientos de parpadeo de ojos realistas), los espectadores observadores aún pueden detectar algunos detalles ilógicos en videos y fotos.
Los investigadores están desarrollando ahora muchos algoritmos para detectar automáticamente rastros de deepfakes.
El contenido generado por IA a menudo deja una “huella digital” distintiva en cada píxel que las máquinas pueden reconocer.
Por ejemplo, Intel ha presentado el primer detector de deepfakes en tiempo real, capaz de analizar vídeos y determinar si los personajes que aparecen en ellos son personas reales o generados por IA.
Además, algunos sitios web permiten a los usuarios subir vídeos y fotos para comprobar la autenticidad de las imágenes (por ejemplo, Deepware, Sensity AI, etc.). Estos sistemas se actualizan constantemente para estar al día con las nuevas técnicas de deepfake.
En particular, los usuarios pueden verificar la fuente de la publicación y el contexto cuando se encuentran con un video o una imagen sensible porque muchos videos deepfake se difunden a través de cuentas falsas o bots en las redes sociales.
Si el contenido sensible sobre una persona proviene de una fuente no oficial o una cuenta anónima, desconfíe de su autenticidad. Le recomendamos contactar directamente a la persona que aparece en el contenido para verificar que realmente lo hizo.
Además, proyectos como este promueven la incorporación de información de autenticación (firmas digitales) en fotos y vídeos desde el momento de su creación, lo que ayuda a distinguir el contenido original del editado. En el futuro, los usuarios podrán usar estas señales de autenticación para identificar contenido fiable", afirmó el Sr. Tho.
5 consejos para protegerse
1. Limite el intercambio de fotografías y vídeos privados y sensibles (especialmente fotografías de desnudos, fotografías familiares, fotografías de niños).
2. Configure sus cuentas de redes sociales como privadas (compártalas solo con personas de confianza).
3. No proporciones demasiada información personal (nombre completo, número de teléfono, dirección...) en redes sociales públicas.
4. Establezca contraseñas seguras y habilite la verificación en dos pasos para sus cuentas para evitar ser pirateados.
5. Busque periódicamente su nombre e imagen en Google (o utilice herramientas de búsqueda inversa de imágenes como Google Image, TinEye) para ver si alguna de sus fotos se ha publicado sin permiso y solicite de inmediato su eliminación.
Fuente: https://tuoitre.vn/dung-ai-ghep-hinh-anh-nhay-cam-de-tong-tien-20250317075948373.htm
Kommentar (0)