Si vous avez déjà parcouru les réseaux sociaux, vous êtes probablement tombé sur une image ou une vidéo générée par l'IA. Nombreux sont ceux qui se sont laissés tromper, comme la vidéo virale de lapins sautant sur un trampoline. Mais Sora, l'application sœur de ChatGPT développée par OpenAI, propulse la vidéo IA à un niveau supérieur, rendant impérative la détection des faux contenus.

Les outils vidéo d'IA rendent plus difficile que jamais de distinguer le réel du réel. (Source : CNET)
Lancée en 2024 et récemment mise à jour avec Sora 2, l'application propose une interface de type TikTok où chaque vidéo est générée par l'IA. La fonction « caméo » permet d'insérer de vraies personnes dans les séquences simulées, créant ainsi des vidéos d'un réalisme effrayant.
De nombreux experts craignent donc que Sora ne propage des deepfakes, créant ainsi une confusion et brouillant les frontières entre le vrai et le faux. Les célébrités sont particulièrement vulnérables, ce qui a conduit des organisations comme SAG-AFTRA à demander à OpenAI de renforcer ses protections.
Identifier le contenu généré par l'IA représente un défi majeur pour les entreprises technologiques, les réseaux sociaux et les utilisateurs. Il existe cependant des moyens de reconnaître les vidéos créées avec Sora.
Trouver le filigrane de Sora

Le filigrane Sora (flèche verte pointant vers l'intérieur) permet d'identifier l'outil de création de la vidéo. (Source : CNET)
Chaque vidéo créée sur l'application iOS Sora reçoit un filigrane lors du téléchargement : un logo Sora blanc (icône de nuage) qui se déplace sur les bords de la vidéo, similaire au filigrane de TikTok.
Il s'agit d'une méthode intuitive pour reconnaître le contenu généré par l'IA. Par exemple, le modèle Gemini « nano banane » de Google filigrane automatiquement les images. Cependant, les filigranes ne sont pas toujours fiables. Un filigrane statique peut être facilement supprimé. Même les filigranes dynamiques comme celui de Sora peuvent être supprimés grâce à des applications dédiées.
Interrogé à ce sujet, Sam Altman, PDG d'OpenAI, a déclaré que la société doit s'adapter au fait que n'importe qui peut créer de fausses vidéos. Avant Sora, aucun outil de ce type n'était largement disponible, accessible et ne nécessitait aucune compétence particulière. Son point de vue souligne la nécessité de recourir à d'autres méthodes de vérification.
Vérifier les métadonnées

Vérification des métadonnées – une étape clé pour déterminer si une vidéo est générée par l'IA, comme Sora. (Source : Canto)
Vous pourriez penser que vérifier les métadonnées est trop compliqué, mais c'est en fait assez simple et très efficace.
Les métadonnées sont un ensemble d'informations automatiquement associées au contenu lors de sa création, telles que le type de caméra, le lieu, l'heure de tournage et le nom du fichier. Qu'il s'agisse d'un contenu généré par un humain ou par l'IA, les métadonnées sont incluses. Pour les contenus créés par l'IA, les métadonnées accompagnent souvent des informations authentifiant leur origine.
OpenAI est membre de la Content Provenance and Authentication Alliance (C2PA). Les vidéos Sora contiendront donc des métadonnées C2PA. Vous pouvez vérifier cela grâce à l'outil de vérification de la Content Authentication Initiative :
Comment vérifier les métadonnées :
- Visitez verify.contentauthenticity.org
- Téléchargez le fichier à vérifier
- Cliquez sur « Ouvrir »
- Voir les informations dans le tableau à droite.
Si la vidéo a été générée par l'IA, le résumé l'indiquera. Lorsque vous consultez une vidéo Sora, vous verrez la mention « publiée par OpenAI » et des informations confirmant sa génération par l'IA. Toutes les vidéos Sora doivent comporter cette information pour en vérifier l'origine.
Source : https://vtcnews.vn/cach-nhan-biet-video-that-hay-do-ai-tao-ar972891.html






Comment (0)