Los malos pueden usar IA para combinar fotos y vídeos sensibles para difamar y chantajear a otros - Foto: Dibujo de IA
En el pasado, cuando se hablaba de la técnica de cortar y pegar la cara de una persona en el cuerpo de otra, la gente solía utilizar Photoshop o un software de edición de fotografías especializado, que es laborioso y fácilmente reconocible a simple vista.
Ahora, con herramientas de inteligencia artificial, las personas pueden hacer eso muy fácilmente en "unas pocas notas", pero no es fácil de detectar a simple vista.
Vídeo sexual con intercambio de caras para chantaje
Debido a conexiones laborales, el Sr. H. (director de una empresa en Ciudad Ho Chi Minh) interactúa a menudo en las redes sociales.
En una ocasión, una joven se hizo amiga suya y le preguntó por su trabajo. Tras un rato de charlar, hablar y compartir sobre el trabajo y la vida personal, ambos parecían muy cercanos.
También hubo muchos mensajes de texto entre ambos con palabras muy cariñosas, junto con fotografías enviadas de ida y vuelta y videollamadas para verse.
Un día, el Sr. H. recibió repentinamente una llamada de un hombre que decía ser el esposo de la joven. Tras una acción preventiva contra el Sr. H., el "esposo" le exigió que transfiriera el dinero de la indemnización o, de lo contrario, enviaría fotos de sus chats y videos sexuales a sus familiares y socios.
Luego, el "marido" del Sr. H. le mostró un video sexual de él y la otra chica, junto con una videollamada entre los dos y mensajes de texto íntimos capturados...
"Nunca he conocido a esa chica, así que estoy seguro de que el vídeo sexual es una imagen retocada con Photoshop", afirmó el Sr. H. Sin embargo, la imagen del rostro de la chica en el vídeo sexual y la de la chica en su videollamada son la misma, junto con una foto del mensaje de texto cariñoso, lo que obligó al Sr. H. a transferir dinero a su "marido" en repetidas ocasiones para preservar su reputación.
Gracias a la investigación de Tuoi Tre , el Sr. H. fue estafado de forma organizada siguiendo un escenario perfecto. En esta estafa, el Sr. H. fue engañado dos veces mediante deepfake. La primera fue una videollamada y la segunda un video sexual.
Cabe destacar que, en el video sexual, el rostro del Sr. H. fue injertado con tanta habilidad que a los espectadores les costó creer que se tratara de un video de injerto facial. Un experto en inteligencia artificial confirmó a Tuoi Tre que los delincuentes usaron una nueva herramienta de inteligencia artificial que podía injertar rostros en los videos a la perfección... como si fueran reales.
Abundan las herramientas de IA para intercambiar rostros
Actualmente existen muchas herramientas de aplicación de IA que tienen funciones como crear cualquier persona con la cara deseada y fusionar la cara deseada con el cuerpo de otra persona.
Entre ellas, hay herramientas con funciones que sirven para malos propósitos, como convertir fotos normales en fotos de desnudos "quitando" a la persona de la foto, o reemplazar la cara de una persona en los videos con una cara deseada...
La mayoría de estas herramientas de IA están disponibles para prueba, pero al pagar por ellas obtendrá funciones completas con un tiempo de transformación muy rápido.
Por ejemplo, con la función cara a cuerpo, los usuarios solo necesitan cargar dos fotos correspondientes y esperar unos segundos para obtener los resultados.
O con la función de crear fotos de desnudos a partir de fotos normales, la herramienta de IA puede hacerlo muy rápidamente, en solo unas pocas decenas de segundos, dejando a los espectadores sorprendidos.
Incluso la función de reemplazar caras en videos de sexo, la herramienta de IA lo hace muy rápidamente, tomando menos de un minuto para videos que duran unos pocos segundos.
Hablando con Tuoi Tre , el Sr. Nguyen Kim Tho, jefe del equipo de investigación y desarrollo de la empresa de ciberseguridad VNetwork, analizó el término deepfake, que se refiere a videos e imágenes falsos creados con IA para hacer creer a los espectadores que son reales.
La tecnología Deepfake utiliza modelos de aprendizaje profundo, como redes neuronales, para analizar los datos faciales y de voz de una persona y crear contenido falso que se parece exactamente a esa persona.
"Gracias a potentes algoritmos, los malhechores pueden poner el rostro de la víctima en vídeos sensibles (por ejemplo, vídeos de "cama", pornografía) o editar imágenes para crear fotos de desnudos falsas.
"El software y las aplicaciones deepfake son ahora muy populares en Internet, incluso con aplicaciones móviles, código fuente abierto o servicios en línea gratuitos, lo que facilita que cualquiera acceda a herramientas para crear videos y fotos falsos, por lo que las personas deben estar alerta", dijo el Sr. Tho.
Manténgase alejado del "chat sexual"
Muchas estafas comienzan con hacer amigos en línea y luego engañan a la víctima para que participe en un chat sexual o envíe fotos sensibles. Por lo tanto, los usuarios nunca deben enviar fotos o videos privados a personas que solo conocen en línea, sin importar las promesas o amenazas que hagan.
Recuerda siempre que cualquier contenido compartido (incluso vía mensajes privados) puede ser grabado (captura de pantalla, vídeo) y luego editado y utilizado en tu contra.
Si realiza una videollamada, tenga cuidado con los desconocidos que le pidan contenido sensible: podría ser una pantalla falsa o que estén grabando.
Los expertos en ciberseguridad aconsejan a los usuarios que nunca confíen en nadie solo a través del contacto en línea y que verifiquen la identidad y las intenciones de la otra persona antes de compartir algo sensible.
Además, si recibe un mensaje de texto o una llamada amenazando con publicar fotos "calientes" para chantajear, los usuarios no necesitan tener miedo ni apresurarse a transferir dinero.
Pagar no garantiza que los malos eliminen el video; de todas formas, pueden seguir exigiendo más o publicar el contenido en línea, dicen los expertos.
En lugar de seguir las solicitudes de los delincuentes, los usuarios deben recopilar evidencia (mensajes, números de teléfono, cuentas de contacto, contenido amenazante...) e informar inmediatamente a la agencia policial más cercana o informar el incidente a través de la aplicación VNeID del Ministerio de Seguridad Pública para recibir apoyo oportuno.
¿Cómo identificar?
Según Nguyen Kim Tho, distinguir entre imágenes y vídeos reales y deepfakes es cada vez más difícil, pero todavía existen algunos signos identificativos y herramientas de apoyo.
Los usuarios pueden observar manualmente, porque el contenido deepfake a veces tiene anomalías en la imagen y el sonido.
Por ejemplo, una imagen compuesta puede mostrar ruido o diferencias de color entre el rostro y el cuerpo. Un video falso puede presentar discrepancias de audio y video (movimientos labiales que no coinciden con el habla) o expresiones faciales rígidas y poco naturales.
Anteriormente, algunos videos deepfake hacían que los personajes no parpadearan o que la iluminación y las sombras en la cara no coincidieran con el contexto, lo que eran señales de que el video había sido editado.
Aunque la tecnología está mejorando (por ejemplo, los nuevos deepfakes han añadido movimientos de parpadeo de ojos realistas), los espectadores observadores aún pueden detectar algunos detalles ilógicos en videos y fotos.
Los investigadores están desarrollando ahora muchos algoritmos para detectar automáticamente rastros de deepfakes.
El contenido generado por IA a menudo deja una “huella digital” distintiva en cada píxel que las máquinas pueden reconocer.
Por ejemplo, Intel ha presentado el primer detector de deepfakes en tiempo real, capaz de analizar vídeos y determinar si los personajes que aparecen en ellos son personas reales o generados por IA.
Además, algunos sitios web permiten a los usuarios subir vídeos y fotos para comprobar la autenticidad de las imágenes (por ejemplo, Deepware, herramientas de inteligencia artificial Sensity, etc.). Estos sistemas se actualizan constantemente para estar al día con las nuevas técnicas de deepfake.
En particular, los usuarios pueden verificar la fuente de la publicación y el contexto cuando se encuentran con un video o una imagen sensible porque muchos videos deepfake se difunden a través de cuentas falsas o bots en las redes sociales.
Si el contenido sensible sobre una persona proviene de una fuente no oficial o una cuenta anónima, desconfíe de su autenticidad. Le recomendamos contactar directamente a la persona que aparece en el contenido para verificar que realmente lo hizo.
Además, proyectos como [nombre del producto] promueven la incorporación de información de autenticación (firmas digitales) en fotos y videos desde el momento de su creación, lo que ayuda a distinguir el contenido original del editado. En el futuro, los usuarios podrán usar estas señales de autenticación para identificar contenido confiable", afirmó el Sr. Tho.
5 consejos para protegerse
1. Limite el intercambio de fotografías y vídeos privados y sensibles (especialmente fotografías de desnudos, fotografías familiares, fotografías de niños).
2. Configure sus cuentas de redes sociales como privadas (compártalas solo con personas de confianza).
3. No proporciones demasiada información personal (nombre completo, número de teléfono, dirección...) en redes sociales públicas.
4. Establezca contraseñas seguras y habilite la verificación en dos pasos para sus cuentas para evitar ser pirateados.
5. Busque periódicamente su nombre e imagen en Google (o utilice herramientas de búsqueda inversa de imágenes como Google Image, TinEye) para ver si alguna de sus fotos se ha publicado sin permiso y solicite de inmediato su eliminación.
Fuente: https://tuoitre.vn/dung-ai-ghep-hinh-anh-nhay-cam-de-tong-tien-20250317075948373.htm
Kommentar (0)