Vietnam.vn - Nền tảng quảng bá Việt Nam

Deepfake audio, une nouvelle préoccupation face à la désinformation

Công LuậnCông Luận24/01/2024


Le bureau du procureur général du New Hampshire a annoncé lundi qu'il enquêtait sur une possible manipulation des électeurs après des plaintes concernant une fausse voix qui ressemblait exactement au président américain Joe Biden exhortant les électeurs à ne pas voter lors des primaires de l'État.

Les chercheurs ont également mis en garde contre l’utilisation de faux fichiers audio pour imiter les politiciens et les dirigeants, des cas importants s’étant produits en 2023 au Royaume-Uni, en Inde, au Nigéria, au Soudan, en Éthiopie et en Slovaquie.

deepfake nouvel audio nouvelle information fausse image 1

Une personne vote aux élections primaires dans le New Hampshire, aux États-Unis. Photo : Getty

Selon les experts, les deepfakes audio sont devenus une forme courante de désinformation grâce à l'émergence d'une gamme d'outils d'IA peu coûteux et efficaces développés par des startups. Microsoft a également développé un nouveau modèle d'IA capable de copier des voix à partir de seulement trois secondes d'enregistrement.

« En matière de manipulation visuelle, tout le monde connaît Photoshop, ou du moins sait qu'il existe », a déclaré Henry Ajder, expert en IA et deepfake et consultant pour Adobe, Meta et EY. « On est très peu conscient de la façon dont l'audio peut être manipulé, ce qui, à mon avis, nous rend vraiment vulnérables. »

En septembre, NewsGuard, un système qui évalue la qualité et la fiabilité des sites d'information, a découvert un réseau de comptes TikTok se faisant passer pour des sites d'information légitimes, utilisant du contenu généré par l'IA pour diffuser des théories du complot et de la désinformation politique. Des enregistrements deepfakes, incluant la voix de l'ancien président américain Barack Obama, ont été visionnés des centaines de millions de fois.

Les fausses voix off semblent avoir été générées par un outil fourni par ElevenLabs, soutenu par Andreessen Horowitz, tandis que les clips ont recueilli des centaines de millions de vues, a déclaré NewsGuard.

« Plus de 99 % des utilisateurs de notre plateforme créent du contenu intéressant, créatif et utile, mais nous reconnaissons qu'il existe des cas d'utilisation abusive et nous avons continuellement développé et introduit des protections pour les limiter », a déclaré ElevenLabs.

ElevenLabs, fondée il y a deux ans par Piotr Dabkowski et Mati Staniszewski, anciens employés de Google et de Palantir, propose des outils rudimentaires de génération audio par IA, gratuits et accessibles en un seul clic. Les abonnements varient de 1 $ à 330 $ par mois, et au-delà pour ceux qui recherchent des services plus complexes.

L’année dernière, les agences de renseignement américaines ont averti dans un rapport que « les escroqueries liées à l’IA personnalisée ont considérablement augmenté en raison de la publication de modèles de clonage vocal d’IA sophistiqués et bien entraînés ».

Outre les escroqueries à motivation financière, les experts politiques tirent désormais la sonnette d'alarme concernant les deepfakes audio viraux, ainsi que leur utilisation pour des appels automatisés ou des campagnes. « On peut lancer une campagne de désinformation puissante et généralisée en ciblant les téléphones », a déclaré AJ Nash, vice-président et éminent chercheur en renseignement du groupe de cybersécurité ZeroFox.

Certaines de ces entreprises ont pris l'initiative de trouver d'autres moyens de lutter contre la désinformation. Microsoft a publié une déclaration éthique, exhortant les utilisateurs à signaler toute utilisation abusive de son outil audio d'IA. ElevenLabs a développé ses propres outils de détection pour identifier les enregistrements audio créés par son système.

Lors des élections nigérianes de 2023, un clip manipulé par l'IA est devenu viral sur les réseaux sociaux « prétendant impliquer qu'un candidat de l'opposition prévoyait de truquer le vote », selon le groupe de défense des droits humains Freedom House.

En Slovaquie, un faux enregistrement audio du candidat de l'opposition Michal Šimečka, apparemment en train de comploter pour truquer les élections, est devenu viral quelques jours avant l'élection présidentielle du pays en septembre.

« Le deepfake du New Hampshire nous rappelle les nombreuses façons dont les deepfakes peuvent semer la confusion et tromper », a déclaré Robert Weissman, président de l'association de défense des consommateurs Public Citizen. « Le moment est venu pour les deepfakes politiques. Les décideurs politiques doivent agir rapidement pour mettre en place des garde-fous, sous peine de chaos électoral. »

Mai Anh (selon le FT)



Source

Comment (0)

No data
No data

Même sujet

Même catégorie

Com lang Vong - le goût de l'automne à Hanoi
Le marché le plus « propre » du Vietnam
Hoang Thuy Linh présente sa chanson à succès, vue des centaines de millions de fois, sur la scène d'un festival mondial
Visitez U Minh Ha pour découvrir le tourisme vert à Muoi Ngot et Song Trem

Même auteur

Patrimoine

Chiffre

Entreprise

Découvrez une journée brillante dans la perle du sud-est de Ho Chi Minh-Ville

Événements actuels

Système politique

Locale

Produit