
YouTube déploie et étendra l'accès à son outil de détection de ressemblance pour les créateurs.
La prolifération des vidéos truquées (deepfakes) brouille la frontière entre réalité et fiction. Des célébrités aux créateurs de contenu, personne n'est à l'abri de cette technologie.
Face à cette réalité, YouTube et de nombreuses autres plateformes en ligne cherchent à trouver un équilibre entre liberté de création et contrôle de l'identité numérique.
YouTube teste actuellement un outil de détection d'usurpation d'identité basé sur l'intelligence artificielle.
YouTube a mis en place une nouvelle fonctionnalité appelée « Détection de ressemblance », qui permet d'identifier les similitudes entre les traits du visage et la voix. Lorsque des créateurs découvrent des vidéos présentant des signes d'usurpation d'identité (image ou voix), ils peuvent soumettre une demande de vérification directement via cet outil.
Le système utilisera un modèle d'intelligence artificielle pour comparer les données faciales et vocales avec le profil original du demandeur. Si la correspondance est forte, la vidéo sera transmise à l'équipe de modération de YouTube pour une évaluation plus approfondie.
Cela contribue à réduire la suppression accidentelle de contenu légitime et à améliorer la précision de la détection des deepfakes.
Contrairement aux outils précédents de signalement des atteintes au droit d'auteur ou des contenus contrefaisants, la nouvelle fonction de reconnaissance se concentre sur l'identité personnelle. Les personnes dont l'identité est usurpée n'ont pas besoin de prouver qu'elles sont propriétaires des images ou du contenu ; il leur suffit de confirmer l'utilisation non autorisée de leur visage ou de leur voix.
Selon YouTube, cet outil vise à redonner le contrôle aux créateurs, face à la multiplication des vidéos utilisant la synthèse d'images et de voix, ce qui rend difficile pour les spectateurs de distinguer le vrai du faux. Son déploiement devrait se faire progressivement aux États-Unis avant d'être étendu à d'autres régions l'année prochaine.
Mesures prises pour lutter contre la vague de deepfakes.
Les deepfakes ne se limitent plus aux vidéos de divertissement ou aux contenus satiriques. En quelques années seulement, cette technologie a été exploitée à des fins de fraude, de manipulation politique et d'information. De nombreux cas de célébrités dont le visage ou la voix ont été modifiés dans des publicités ou des contenus sensibles ont suscité des inquiétudes chez les internautes quant à la fiabilité des informations qu'ils consultent en ligne.
Face à cette vague, les plateformes de réseaux sociaux cherchent collectivement des solutions. Meta a annoncé son intention d'étiqueter les vidéos créées par intelligence artificielle comme « générées par IA », tandis que TikTok a ajouté une option « générées par IA » à sa section de signalement des infractions, facilitant ainsi le signalement des fausses vidéos par les utilisateurs. Pour YouTube, il s'agit d'une mesure proactive pour lutter contre la propagation et la difficulté à contrôler les deepfakes.
Le déploiement de cette fonctionnalité témoigne également de la volonté de YouTube de redéfinir les normes de modération de contenu à l'ère de l'IA. La plateforme ne se contente pas de gérer les vidéos contrefaisantes, mais met aussi en place des mécanismes permettant aux créateurs de protéger leur identité numérique.
Certains experts des médias voient cela comme un signe que les entreprises technologiques ont commencé à passer de « l'adaptation à l'IA » à « la maîtrise de l'impact de l'IA ».
Toutefois, l'application d'outils de détection de deepfakes à l'échelle mondiale n'est pas chose aisée. Les différences de législation en matière de protection des données entre les pays et la complexité de l'identification des contenus falsifiés préjudiciables constituent autant de défis que YouTube devra relever lors de la mise en œuvre de cette solution.
La frontière entre créativité et censure
La lutte contre les deepfakes soulève des questions quant aux limites de la création de contenu. De nombreux producteurs vidéo craignent que les outils de détection automatisés n'affectent les productions légitimes basées sur l'IA, comme les courts métrages ou les vidéos d'animation. Face à la frontière de plus en plus floue entre créativité et contrefaçon, les plateformes doivent trouver des solutions pour protéger les utilisateurs sans porter atteinte à la liberté de création.
YouTube affirme que son outil d'identification n'a pas pour but de restreindre la créativité, mais de protéger le droit des individus à contrôler leurs propres images. Cependant, les experts estiment que déterminer quelles vidéos sont nuisibles et lesquelles sont des créations légitimes restera un défi majeur.
La course entre les technologies permettant de créer des faux contenus et celles permettant de les détecter va probablement se poursuivre, et le nouvel outil de YouTube n'est qu'un petit pas dans les efforts déployés pour préserver l'authenticité à l'ère du virtuel.
Source : https://tuoitre.vn/youtube-tung-cong-cu-likeness-detection-bao-ve-hinh-anh-va-giong-noi-truoc-deepfake-20251023163915973.htm






Comment (0)