NBC News a cité le 12 juin un avertissement du FBI selon lequel les escrocs - en particulier les criminels de haute technologie - utilisent l'intelligence artificielle (IA) pour créer des vidéos pornographiques ou de fausses photos de victimes, puis leur demandent de payer pour empêcher leur diffusion sur Internet.
Cette méthode, appelée deepfake, combine des algorithmes d'apprentissage profond et d'apprentissage automatique pour créer de fausses vidéos, images ou sons réalistes. Cet outil est devenu populaire ces dernières années et continue de se développer.
Illustration : AZ Business Magazine
Dans un avertissement du 12 juin, le FBI a déclaré avoir reçu de plus en plus de plaintes concernant des criminels utilisant des outils deepfake pour créer de fausses vidéos et photos pornographiques à des fins de chantage.
Les criminels prennent des photos et des vidéos de leurs victimes sur les réseaux sociaux. Après avoir créé de faux produits, ils les diffusent sur les réseaux sociaux, les forums publics ou les sites web pornographiques.
Selon le FBI, les victimes sont contraintes de payer de l'argent, des cartes-cadeaux, voire des photos « à caractère sexuel », ou de diffuser leurs fausses vidéos et photos. Parallèlement, les escrocs menacent de les envoyer à la famille et aux amis de la victime si elle refuse.
Une enquête menée par NBC News en mars a révélé que des produits pornographiques deepfake étaient facilement accessibles via des plateformes de recherche et de chat en ligne.
Le président de l'Identity Theft Resource Center (ITRC), une association à but non lucratif qui aide les victimes de fraude, explique que les criminels tentent parfois de choquer leurs victimes avec des vidéos ou des images particulièrement sensibles. Prise de panique, la victime souhaite simplement que la vidéo ou l'image disparaisse, ce qui implique de céder aux exigences des escrocs.
Le FBI conseille aux gens d'être prudents lorsqu'ils acceptent des demandes d'amis provenant d'inconnus et de comprendre que répondre aux demandes des criminels deepfake ne signifie pas qu'ils ne distribueront pas de vidéos ou d'images sexuellement explicites d'eux.
Le Centre national pour les enfants disparus et exploités a proposé un service gratuit appelé Take It Down pour aider à empêcher la distribution de vidéos ou de photos sensibles d'enfants de moins de 18 ans.
Source
Comment (0)