Il s'agit d'individus malveillants qui utilisent l'intelligence artificielle (IA) pour modifier les visages et les corps de personnes ordinaires, les transformant en personnes handicapées, puis inventant des histoires poignantes pour vendre des produits ou solliciter des dons. Leur seul objectif est d'exploiter la compassion de la communauté à des fins illicites.

Astuce sophistiquée
Un exemple frappant qui a suscité l'indignation générale est celui d'une chaîne TikTok appelée NL, qui a publié une série de vidéos d'une femme amputée des deux bras tentant de vendre des articles en ligne pour subvenir aux besoins de ses jeunes enfants. Dans ces vidéos, la femme apparaît dans une pièce simple, vêtue modestement, utilisant ses bras amputés pour promouvoir des produits, suscitant la sympathie et la compassion des internautes. Nombre d'entre eux se sont immédiatement abonnés à sa chaîne, ont partagé ses publications et ont même passé commande pour aider cette mère à surmonter son épreuve. Cependant, à mesure que les vidéos devenaient virales, les internautes ont réalisé qu'il s'agissait en réalité d'images d'une vendeuse ordinaire, retouchées numériquement par intelligence artificielle pour ressembler à une personne réellement handicapée.
Cette tactique consistant à jouer sur la compassion est devenue un piège, incitant de nombreuses personnes à transférer de l'argent ou à passer des commandes en croyant aider une personne défavorisée ou vulnérable. Dang Minh Quang, habitant rue Ngoc Lam, dans le quartier de Bo De ( Hanoï ), raconte : « Ma mère, touchée par la vidéo de la femme manchote vendant des marchandises, a passé commande. Lorsqu'elle a découvert la vérité – que la personne handicapée n'était qu'une image générée par une intelligence artificielle – elle a été très triste et s'est sentie insultée. »
L'histoire de la mère de Quang n'est pas un cas isolé. Des centaines d'autres personnes ont été dupées de la même manière. Lorsque la gentillesse est exploitée, les gens perdent peu à peu confiance et se méfient des appels à l'aide sincères. La conséquence tragique est que les personnes réellement vulnérables souffrent énormément. Sur son compte Facebook personnel, Nguyen Sin a partagé le cas de Tran Thi Nga (36 ans, originaire de la province de Phu Tho ), créatrice de la chaîne « Nga la Positive », une personne handicapée (fin 2024, suite à une myocardite aiguë, elle a dû être amputée des quatre membres pour survivre), connue pour inspirer régulièrement les autres par son optimisme. Cependant, après la multiplication des cas d'usurpation d'identité de personnes handicapées par l'IA, Nga a été soupçonnée d'avoir utilisé l'IA pour se faire passer pour une personne handicapée.
Lors de récentes diffusions en direct, Mme Nga a été profondément bouleversée par les demandes répétées d'utilisateurs des réseaux sociaux lui intimant de « lever les mains », de « ramper », etc., pour prouver son handicap. Ces exigences déraisonnables et cruelles l'ont profondément blessée. L'histoire de Mme Nga est un témoignage poignant des ravages que peut causer le mauvais usage des technologies.
Compétences en matière d'identification de faux contenus créés par l'IA
Selon le ministère de la Sécurité publique, le Vietnam a enregistré plus de 6 000 cas de fraude en ligne en 2024, engendrant des pertes estimées à environ 12 000 milliards de dongs. En seulement huit mois en 2025, près de 1 500 cas de fraude en ligne ont été détectés. Ces chiffres illustrent clairement la gravité de la cybercriminalité dans un pays qui compte plus de 78 millions d’internautes et 72 millions d’utilisateurs de réseaux sociaux. Le cyberespace devient un terrain fertile pour des escroqueries toujours plus sophistiquées, l’utilisation de l’intelligence artificielle pour créer de faux contenus représentant aujourd’hui la plus grande menace.
Face à cette situation alarmante, les autorités et les experts en cybersécurité conseillent à la population de se doter des connaissances et des compétences nécessaires pour identifier les contenus frauduleux. Nguyen Nhat Ha, secrétaire adjoint de l'Union des jeunes du commissariat de police de l'arrondissement de Long Bien (Hanoï), a souligné l'importance de consulter régulièrement les sources d'information officielles et de se tenir informé des évolutions technologiques et des nouvelles formes de fraude. Il est essentiel de rester vigilant et de respecter les principes fondamentaux : vérifier scrupuleusement la source de l'information, ne jamais communiquer d'informations personnelles à des sources non vérifiées, ne pas cliquer sur des liens suspects et ne jamais transférer d'argent vers des comptes non vérifiés.
Pour identifier les vidéos générées par l'IA, les experts en cybersécurité conseillent d'observer attentivement les détails de l'image, les mouvements du visage et des mains, ainsi que le son. Des signes tels que des yeux inexpressifs, des mouvements anormaux, un débit de parole retardé ou une synchronisation labiale défectueuse sont souvent révélateurs de la technologie deepfake.
De plus, vérifier les informations de l'auteur, lire les commentaires et consulter l'historique d'activité sont des moyens simples d'évaluer la fiabilité d'une vidéo. Par ailleurs, les utilisateurs doivent prendre l'habitude de vérifier les informations avant d'y croire. Même les vidéos les plus émouvantes ne doivent pas être partagées ou soutenues à la légère.
Des experts appellent également les plateformes de médias sociaux à renforcer la modération et à identifier les contenus utilisant l'IA pour usurper l'identité de personnes handicapées, et à sanctionner sévèrement les comptes contrevenants. Les autorités doivent également publier rapidement une réglementation claire sur l'utilisation des images et des contenus générés par l'IA, afin de garantir que cette technologie ne devienne pas un outil de conduite contraire à l'éthique par des individus malveillants.
Source : https://hanoimoi.vn/dung-ai-gia-nguoi-khuyet-tat-de-truc-loi-canh-giac-chieu-lua-moi-722565.html






Comment (0)