Los deepfakes son ahora una gran preocupación, ya que el número de estafas que utilizan esta tecnología sigue aumentando.
Tras investigar los foros de la Darknet, donde suelen operar los ciberdelincuentes, los expertos en seguridad descubrieron que tantos delincuentes utilizan software Deepfake para cometer fraudes que la demanda supera con creces la oferta de software Deepfake disponible actualmente en el mercado.
A medida que la demanda supera la oferta, los expertos de Kaspersky predicen un aumento en las estafas con deepfakes, con métodos cada vez más diversos y sofisticados: desde proporcionar vídeos de suplantación de identidad de alta calidad hasta utilizar imágenes de famosos en transmisiones en directo falsas en las redes sociales, prometiendo duplicar la cantidad que las víctimas les enviaran.
Según el sistema de referencia de información Regula, el 37% de las empresas a nivel mundial han sufrido estafas de deepfake basadas en voz, y el 29% han sido víctimas de estafas de deepfake basadas en vídeo.
Esta tecnología se ha convertido en una amenaza para la ciberseguridad de Vietnam, donde los ciberdelincuentes suelen utilizar videollamadas falsas para suplantar la identidad de personas con el fin de pedir dinero prestado a sus familiares y amigos.
Una videollamada deepfake puede durar tan solo un minuto, lo que dificulta enormemente que las víctimas distingan entre una llamada real y una falsa.
Los deepfakes se están convirtiendo gradualmente en una "pesadilla" en las estafas online sofisticadas.
" Los deepfakes se han convertido en una pesadilla para las mujeres y la sociedad. Los ciberdelincuentes están explotando la inteligencia artificial (IA) para superponer los rostros de las víctimas en imágenes y vídeos pornográficos, así como en campañas de propaganda."
"Estas formas de manipulación tienen como objetivo controlar la opinión pública mediante la difusión de información errónea, llegando incluso a dañar la reputación de organizaciones o individuos", compartió la Sra. Vo Duong Tu Diem, Directora Regional de Kaspersky Vietnam.
Aunque los delincuentes están haciendo un mal uso de la IA con fines nefastos, tanto particulares como empresas pueden seguir utilizando la inteligencia artificial para identificar deepfakes, reduciendo así la probabilidad de que se produzcan estafas exitosas.
En consecuencia, los usuarios dispondrán de varias soluciones útiles para protegerse de las estafas, como el uso de software de detección de contenido generado por IA (que utiliza algoritmos avanzados para analizar y determinar el grado de edición de imágenes, vídeos y audio).
Para los vídeos deepfake, ahora existen herramientas que ayudan a identificar desajustes entre los movimientos de la boca y el habla. Algunos programas son incluso lo suficientemente "potentes" como para detectar flujos sanguíneos anormales bajo la piel analizando la resolución del vídeo, ya que cuando el corazón bombea sangre, las venas del cuerpo cambian de color.
Además, las marcas de agua sirven como identificadores en imágenes, vídeos, etc., lo que ayuda a los autores a proteger los derechos de autor de sus productos de IA. Esta función puede convertirse en una herramienta contra los deepfakes, ya que permite rastrear el origen de la plataforma que creó la inteligencia artificial. Los usuarios con conocimientos técnicos pueden encontrar maneras de rastrear la fuente del contenido para comparar cómo la IA ha modificado los datos originales.
Actualmente, algunas tecnologías emergentes utilizan algoritmos de cifrado para insertar valores hash a intervalos de tiempo preestablecidos en el vídeo. Si el vídeo ha sido editado, el valor hash cambiará, lo que permitirá a los usuarios verificar si el contenido ha sido manipulado.
Anteriormente, existían algunas pautas para detectar anomalías en los vídeos, como distorsión del color, movimientos musculares antinaturales, movimientos oculares, etc. Sin embargo, a medida que la IA se vuelve cada vez más inteligente, estos valores no siempre arrojan resultados precisos.
El proceso de verificación de la credibilidad de los vídeos ya no se basa en la inspección visual, sino que requiere herramientas tecnológicas diseñadas para prevenir y detectar contenido falso.
Khanh Linh
Fuente






Kommentar (0)