Vietnam.vn - Nền tảng quảng bá Việt Nam

Cómo identificar estafas que explotan la tecnología Deepfake.

VTC NewsVTC News21/10/2023

[anuncio_1]

Los deepfakes son ahora una preocupación importante ya que el número de estafas que utilizan esta tecnología sigue aumentando.

Después de investigar los foros de Darknet, donde los ciberdelincuentes operan con frecuencia, los expertos en seguridad descubrieron que muchos delincuentes utilizan software Deepfake para cometer fraudes y la demanda supera con creces la oferta de software Deepfake actualmente disponible en el mercado.

Como la demanda supera la oferta, los expertos de Kaspersky predicen un aumento en las estafas Deepfake, con métodos cada vez más diversos y sofisticados: desde proporcionar videos de suplantación de identidad de alta calidad hasta usar imágenes de celebridades en transmisiones en vivo falsas en las redes sociales, prometiendo duplicar la cantidad que las víctimas les envían.

Según el sistema de referencia de información Regula, el 37% de las empresas en todo el mundo han experimentado estafas Deepfake basadas en voz, y el 29% han sido víctimas de estafas Deepfake basadas en video.

Esta tecnología se ha convertido en una amenaza para la ciberseguridad de Vietnam, donde los ciberdelincuentes a menudo utilizan videollamadas falsas para hacerse pasar por personas y pedir dinero prestado a sus familiares y amigos.

Una videollamada Deepfake puede durar tan solo un minuto, lo que hace que sea muy difícil para las víctimas distinguir entre una llamada real y una falsa.

Los deepfakes se están convirtiendo poco a poco en una “pesadilla” dentro de las sofisticadas estafas en línea.

Los deepfakes se están convirtiendo poco a poco en una “pesadilla” dentro de las sofisticadas estafas en línea.

Los deepfakes se han convertido en una pesadilla para las mujeres y la sociedad. Los ciberdelincuentes están explotando la inteligencia artificial (IA) para superponer los rostros de las víctimas en imágenes y vídeos pornográficos, así como en campañas de propaganda.

"Estas formas de manipulación buscan controlar la opinión pública difundiendo desinformación, llegando incluso a dañar la reputación de organizaciones o individuos", afirmó Vo Duong Tu Diem, directora regional de Kaspersky Vietnam.

Aunque los delincuentes están utilizando la IA de forma indebida con fines nefastos, las personas y las empresas aún pueden usar la inteligencia artificial para identificar deepfakes, lo que reduce la probabilidad de que las estafas tengan éxito.

En consecuencia, los usuarios dispondrán de varias soluciones útiles para protegerse de las estafas, como por ejemplo utilizar software de detección de contenido generado por IA (que utiliza algoritmos avanzados para analizar y determinar en qué medida se han editado las imágenes/vídeos/audio).

Para los videos deepfake, ahora existen herramientas que ayudan a identificar movimientos incoherentes entre la boca y el habla. Algunos programas incluso son lo suficientemente potentes como para detectar flujo sanguíneo anormal bajo la piel analizando la resolución del video, ya que cuando el corazón bombea sangre, las venas del cuerpo cambian de color.

Además, las marcas de agua sirven como marcas de identificación en imágenes, vídeos, etc., lo que ayuda a los autores a proteger los derechos de autor de sus productos de IA. Esta función puede convertirse en un arma contra los deepfakes, ya que permite rastrear el origen de la plataforma que creó la inteligencia artificial. Los usuarios expertos en tecnología pueden encontrar maneras de rastrear la fuente del contenido para comparar cómo la IA ha modificado los datos originales.

Actualmente, algunas tecnologías emergentes utilizan algoritmos de cifrado para insertar valores hash en el vídeo a intervalos de tiempo determinados. Si el vídeo ha sido editado, el valor hash cambiará, lo que permitirá a los usuarios verificar si el contenido ha sido manipulado.

Anteriormente, existían algunas pautas para encontrar anomalías en los vídeos, como distorsión de color, movimientos musculares antinaturales, movimientos oculares, etc. Sin embargo, a medida que la IA se vuelve cada vez más inteligente, estos valores no siempre arrojan resultados precisos.

El proceso de verificar la credibilidad de los vídeos ya no depende de la inspección visual sino que requiere herramientas tecnológicas diseñadas para prevenir y detectar contenido falso.

Khanh Linh


[anuncio_2]
Fuente

Kommentar (0)

¡Deja un comentario para compartir tus sentimientos!

Mismo tema

Misma categoría

Mismo autor

Herencia

Cifra

Empresas

Actualidad

Sistema político

Local

Producto

Happy Vietnam
Reino de los recuerdos

Reino de los recuerdos

Marzo

Marzo

Vietnam, me encanta

Vietnam, me encanta