NBC News a cité le 12 juin un avertissement du FBI indiquant que les escrocs - en particulier les criminels de haute technologie - utilisent l'intelligence artificielle (IA) pour créer des vidéos pornographiques ou de fausses photos de victimes, puis leur demandent de payer pour qu'elles ne soient pas diffusées sur Internet.
La méthode s'appelle deepfake - une technique qui combine des algorithmes d'apprentissage profond et d'apprentissage automatique pour créer de fausses vidéos, images ou sons réalistes. Cet outil est devenu populaire ces dernières années et continue de croître.
Illustration : AZ Business Magazine
Dans un avertissement du 12 juin, le FBI a déclaré avoir reçu de plus en plus de plaintes concernant des criminels utilisant des outils deepfake pour créer de fausses vidéos et photos pornographiques à des fins de chantage.
Les criminels prennent des photos et des vidéos de leurs victimes sur les réseaux sociaux. Après avoir créé les produits contrefaits, ils les diffusent sur les réseaux sociaux, les forums publics ou les sites Web pornographiques.
Selon le FBI, les victimes sont obligées de payer de l'argent, des cartes cadeaux ou même des photos « nues » ou de diffuser leurs fausses vidéos et photos. Dans le même temps, les escrocs menacent de les envoyer à la famille et aux amis de la victime si celle-ci ne se conforme pas à leurs exigences.
Une enquête de NBC News réalisée en mars a révélé que les produits pornographiques deepfake étaient facilement accessibles via des plateformes de recherche et de chat en ligne.
Le président de l'Identity Theft Resource Center (ITRC - une organisation à but non lucratif qui aide les victimes de fraude) affirme que les criminels tentent parfois de choquer leurs victimes avec des vidéos ou des images particulièrement sensibles. Après avoir paniqué, la victime voudra simplement que la vidéo ou l'image disparaisse, ce qui signifie répondre aux exigences des escrocs.
Le FBI conseille aux gens d'être prudents lorsqu'ils acceptent des demandes d'amis d'inconnus et de comprendre que répondre aux demandes des criminels deepfake ne signifie pas qu'ils ne distribueront pas de vidéos ou d'images sexuellement explicites d'eux.
Le Centre national pour les enfants disparus et exploités a proposé un service gratuit appelé Take It Down pour aider à empêcher la distribution de vidéos ou de photos sensibles d'enfants de moins de 18 ans.
Source
Comment (0)