NBC News citó el 12 de junio una advertencia del FBI que decía que los estafadores, especialmente los criminales de alta tecnología, están usando inteligencia artificial (IA) para crear videos pornográficos o fotos falsas de las víctimas y luego les piden que paguen para que no se difundan en Internet.
El método se llama deepfake, una técnica que combina algoritmos de aprendizaje profundo y aprendizaje automático para crear vídeos, imágenes o sonidos falsos y realistas. Esta herramienta se ha vuelto popular en los últimos años y está creciendo.
Ilustración: Revista AZ Business
En una advertencia del 12 de junio, el FBI dijo que ha recibido cada vez más quejas sobre delincuentes que utilizan herramientas deepfake para crear videos y fotografías pornográficas falsas con fines de chantaje.
Los delincuentes toman fotografías y vídeos de las víctimas en las redes sociales. Después de crear los productos falsificados, los difunden en redes sociales, foros públicos o sitios web pornográficos.
Según el FBI, las víctimas se ven obligadas a pagar dinero, tarjetas de regalo o incluso fotos "desnudas" o a difundir sus vídeos y fotos falsos. Al mismo tiempo, los estafadores amenazan con enviarlos a los familiares y amigos de la víctima si no cumplen con las exigencias.
Una investigación de NBC News en marzo descubrió que los productos pornográficos deepfake eran fácilmente accesibles a través de plataformas de chat y búsqueda en línea.
El presidente del Centro de Recursos contra el Robo de Identidad (ITRC, una organización sin fines de lucro que ayuda a las víctimas de fraude) dice que los delincuentes a veces intentan sorprender a las víctimas con videos o imágenes particularmente sensibles. Después de entrar en pánico, la víctima simplemente querrá que el vídeo o la imagen desaparezcan, lo que significa cumplir con las demandas de los estafadores.
El FBI recomienda a las personas tener cuidado al aceptar solicitudes de amistad de desconocidos y comprender que responder a las solicitudes de los delincuentes deepfake no significa que no distribuirán vídeos o imágenes sexualmente explícitos de ellos.
El Centro Nacional para Niños Desaparecidos y Explotados ha ofrecido un servicio gratuito llamado Take It Down para ayudar a prevenir la distribución de vídeos o fotografías sensibles de niños menores de 18 años.
[anuncio_2]
Fuente
Kommentar (0)