Selon une étude de Google DeepMind, la création d'images, de vidéos et d'audios imitant l'homme est presque deux fois plus courante que la création de fausses informations à l'aide d'outils tels que les chatbots IA.
L'analyse a révélé que l'objectif le plus courant des acteurs abusant de l'IA synthétique était de façonner ou d'influencer l'opinion publique, ce qui représente 27 % des utilisations, ce qui soulève des inquiétudes quant à la manière dont les deepfakes pourraient influencer les élections dans le monde entier cette année.
De fausses images du Premier ministre britannique Rishi Sunak sont apparues sur TikTok et Instagram à l'approche des élections générales. Photo : AFP
Des deepfakes du Premier ministre britannique Rishi Sunak et d'autres dirigeants mondiaux sont apparus sur TikTok, X et Instagram ces derniers mois. Les électeurs britanniques se rendront aux urnes la semaine prochaine pour des élections générales.
Certains craignent que, malgré les efforts des médias sociaux pour étiqueter ou supprimer ce type de contenu, le public ne le reconnaisse pas comme faux et que sa diffusion puisse influencer les électeurs.
Ardi Janjeva, chercheur associé à l'Institut Alan Turing, a qualifié les conclusions de l'étude de « particulièrement pertinentes », selon lesquelles les informations publiques générées par l'IA peuvent « déformer notre compréhension commune de la réalité sociopolitique ».
« Même si nous ne sommes pas certains de l’impact des deepfakes sur le comportement électoral, cette distorsion peut être difficile à détecter à court terme et présente des risques à long terme pour la démocratie », a ajouté Janjeva.
« Il y a eu beaucoup d’inquiétudes autour des cyberattaques assez sophistiquées qui sont créées à l’aide de ces outils », a déclaré la chercheuse Nahema Marchal, auteure principale de l’étude chez Google DeepMind.
Des chercheurs de Google DeepMind et Jigsaw ont analysé environ 200 cas d'utilisation abusive de l'IA entre janvier 2023 et mars 2024, tirés des réseaux sociaux X et Reddit, ainsi que des blogs en ligne et des rapports médiatiques sur les abus.
La deuxième motivation la plus courante derrière les abus est la monétisation, notamment la création de photos de personnes nues ou l'utilisation de l'IA pour générer divers contenus, comme de faux articles de presse. La plupart des scénarios font appel à des outils accessibles qui « nécessitent une expertise technique minimale », ce qui signifie que de nombreux acteurs malveillants peuvent exploiter l'IA de manière créative.
Ngoc Anh (selon le FT)
Source : https://www.congluan.vn/nghien-cuu-deepfake-chinh-tri-dung-dau-trong-danh-sach-su-dung-ai-doc-hai-post300851.html
Comment (0)