![]() |
Compte utilisant l'IA pour usurper l'identité d'un vendeur. Photo : TikTok . |
Avec l'apparition récente d'outils d'IA avancés, la création de photos et de vidéos est devenue beaucoup plus simple, ne nécessitant que quelques commandes. Cependant, la capacité des internautes à distinguer le vrai du faux n'a pas suivi cette évolution et a été exploitée par certains à des fins lucratives.
Récemment, un compte TikTok a fait le buzz sur les réseaux sociaux, publiant une série de vidéos sur une femme amputée des deux bras qui doit vendre des produits pour subvenir aux besoins de ses jeunes enfants. Dans ces vidéos, elle porte des vêtements simples et présente avec émotion des produits comme du papier essuie-tout et de la lessive.
D'après les informations recueillies, la femme a raconté le décès prématuré de son mari dans un accident, la laissant seule avec un jeune enfant. Cependant, son récit était incohérent dans ses vidéos. Le compte a cumulé des millions de vues et d'interactions, et a gagné 100 000 abonnés en seulement trois jours. De nombreuses personnes ont exprimé leur sympathie, lancé des appels à l'aide et même commandé des produits pour contribuer à son bien-être.
Les utilisateurs continuent de découvrir des comptes au contenu similaire. Ces comptes ont en commun d'être des pages personnelles récemment créées, sans historique d'interactions significatif, et de diffuser souvent un contenu excessivement émotionnel.
![]() |
Ces chaînes sont souvent nouvelles et n'ont pas de profil clairement défini. |
Cependant, au bout d'un certain temps, les internautes ont remarqué des incohérences et des anomalies dans chaque vidéo. Par exemple, le bras amputé de la femme paraissait très lisse, la peinture des murs de la maison était différente, ou encore le bébé restait anormalement immobile. La raison ? Toutes ces vidéos étaient générées par une intelligence artificielle pour tromper les internautes.
Il convient de noter que les commentaires d'avertissement ou de dénonciation ont été masqués ou supprimés par le propriétaire du compte. Nombreux sont ceux qui se sont sentis offensés d'avoir été trompés et indignés par cette exploitation de la compassion d'autrui.
De plus, ces fausses vidéos affectent également les propriétaires et les autres personnes handicapées qui gagnent leur vie sur la même plateforme. Mme Tran Thi Nga (36 ans), originaire de Phu Tho et propriétaire de la chaîne Nga Tich Cuc, a dû constamment expliquer qu'elle avait bien un bras amputé.
Fin 2024, cette personne a contracté une myocardite virale aiguë et a dû subir l'amputation de ses quatre membres. Elle a alors dû recommencer sa vie entourée de l'amour de sa famille. Lors d'une récente diffusion en direct, elle a exprimé sa tristesse face aux doutes et aux paroles blessantes dont elle a été victime.
Ces chaînes nouvellement créées ont également rapidement acquis un grand nombre d'abonnés, rendant la différenciation plus difficile. Un autre compte au contenu similaire, nommé NLS, a vu son nombre d'abonnés augmenter de près de 50 000 après la publication d'une seule vidéo.
![]() |
Les utilisateurs ont exprimé leur indignation et leur perte de confiance lorsqu'ils ont été trompés. |
Il est donc impossible de reprocher à la communauté en ligne de perdre progressivement confiance en ce qu'elle voit et, par conséquent, de ne plus se soucier de ceux qui ont réellement besoin d'aide. Un commentaire affirmait que ceux qui utilisent l'intelligence artificielle pour manipuler les émotions de la communauté devraient être condamnés.
Les arnaques en ligne sont de plus en plus sophistiquées et ciblent les personnes isolées ou âgées. La plupart des fraudeurs utilisent des images de personnes en situation de détresse, comme une hospitalisation ou un handicap, puis ajoutent des captures d'écran de paniers d'achat ou laissent des numéros de compte pour appeler à l'aide.
Auparavant, CNBC avait découvert plus de 30 comptes Instagram, YouTube et TikTok utilisant l'IA pour usurper l'identité de personnes atteintes de trisomie 21. Ces individus utilisaient des histoires poignantes pour attirer des abonnés et lancer des appels aux dons, mais en réalité, ils s'étaient approprié les comptes.
Cet incident met en lumière le risque que des personnes mal intentionnées exploitent la capacité de l'IA à reproduire du contenu réaliste. Face à l'évolution rapide de cette technologie, il est essentiel que les utilisateurs la popularisent et aident leurs proches à se prémunir contre les arnaques en ligne.
Source : https://znews.vn/video-nghi-ai-gia-nguoi-khuet-tat-ban-hang-gay-buc-xuc-post1598306.html









Comment (0)