Vietnam.vn - Nền tảng quảng bá Việt Nam

Comment faire la différence entre une vraie vidéo et une vidéo créée par une IA ?

Avec Sora AI qui permet à n'importe qui de créer des vidéos deepfake hyperréalistes, faire la distinction entre les vraies et les fausses vidéos (deepfakes) est devenu une compétence de survie cruciale à l'ère numérique.

VTC NewsVTC News26/10/2025

Si vous avez déjà consulté les réseaux sociaux, il y a de fortes chances que vous soyez tombé sur des images ou des vidéos créées par l'IA. Nombreux sont ceux qui se sont fait avoir, comme avec la vidéo virale de lapins sautant sur un trampoline. Mais Sora, une application sœur de ChatGPT développée par OpenAI, pousse l'IA vidéo encore plus loin, rendant la détection des contenus truqués de plus en plus urgente.

Les outils d'intelligence artificielle pour la vidéo rendent l'identification des vidéos authentiques plus difficile que jamais. (Source : CNET)

Les outils d'intelligence artificielle pour la vidéo rendent l'identification des vidéos authentiques plus difficile que jamais. (Source : CNET)

Lancée en 2024 et récemment mise à jour avec Sora 2, cette application possède une interface similaire à TikTok, où toutes les vidéos sont générées par IA. La fonctionnalité « caméo » permet d'intégrer de vraies personnes dans des séquences simulées, créant ainsi des vidéos d'un réalisme saisissant.

De nombreux experts craignent donc que Sora ne contribue à la propagation des deepfakes, en déformant l'information et en brouillant la frontière entre réalité et fiction. Les célébrités sont particulièrement vulnérables, ce qui a conduit des organisations comme la SAG-AFTRA à demander à OpenAI de renforcer la protection des données.

Identifier les contenus générés par l'IA représente un défi majeur pour les entreprises technologiques, les plateformes de médias sociaux et les utilisateurs. Il existe cependant des méthodes pour reconnaître les vidéos créées avec Sora.

Trouver le filigrane Sora

Le filigrane Sora (indiqué par la flèche bleue) est un marqueur qui identifie l'outil utilisé pour créer la vidéo. (Source : CNET)

Le filigrane Sora (indiqué par la flèche bleue) est un marqueur qui identifie l'outil utilisé pour créer la vidéo. (Source : CNET)

Chaque vidéo créée sur l'application Sora pour iOS comporte un filigrane lors de son téléchargement : le logo blanc de Sora (icône de nuage) se déplace sur les bords de la vidéo, à l'instar du filigrane de TikTok.

Il s'agit d'une méthode visuelle pour identifier les contenus générés par l'IA. Par exemple, le modèle Gemini de Google, surnommé « nano-banane », ajoute automatiquement un filigrane aux images. Cependant, les filigranes ne sont pas toujours fiables. S'il est statique, il peut être facilement supprimé. Même les filigranes dynamiques, comme celui de Sora, peuvent être effacés à l'aide d'applications spécialisées.

Interrogé à ce sujet, Sam Altman, PDG d'OpenAI, a affirmé que la société devait s'adapter au fait que n'importe qui peut créer de fausses vidéos. Avant Sora, aucun outil n'avait jamais été aussi populaire, accessible et ne nécessitait de compétences particulières pour créer de telles vidéos. Son point de vue souligne la nécessité de recourir à des méthodes de vérification alternatives.

Vérifier les métadonnées

La vérification des métadonnées est une étape cruciale pour déterminer si une vidéo a été créée par une IA, comme Sora. (Source : Canto)

La vérification des métadonnées est une étape cruciale pour déterminer si une vidéo a été créée par une IA, comme Sora. (Source : Canto)

Vous pourriez penser que la vérification des métadonnées est trop compliquée, mais c'est en réalité assez simple et très efficace.

Les métadonnées sont un ensemble d'informations automatiquement associées à un contenu lors de sa création, telles que le type de caméra, le lieu, l'heure d'enregistrement et le nom du fichier. Qu'il soit généré par un humain ou par une IA, le contenu possède des métadonnées. Dans le cas du contenu généré par une IA, les métadonnées incluent souvent des informations d'attribution de la source.

OpenAI est membre de la Coalition pour l'origine et l'authenticité du contenu (C2PA). Les vidéos Sora contiennent donc des métadonnées C2PA. Vous pouvez le vérifier à l'aide de l'outil de vérification de l'initiative d'authenticité du contenu :

Comment vérifier les métadonnées :

  • Visitez verify.contentauthenticity.org
  • Téléversez le fichier à vérifier.
  • Appuyez sur « Ouvrir »
  • Consultez les informations dans le tableau de droite.

Si la vidéo a été créée par une IA, cela sera clairement indiqué dans le résumé. En consultant les vidéos Sora, vous verrez la mention « Publié par OpenAI » ainsi que des informations confirmant que la vidéo a été créée à l'aide d'une IA. Toutes les vidéos Sora doivent comporter cette information afin de vérifier leur origine.

Monsieur Quang

Source : https://vtcnews.vn/cach-nhan-biet-video-that-hay-do-ai-tao-ar972891.html


Comment (0)

Laissez un commentaire pour partager vos ressentis !

Même sujet

Même catégorie

Gros plan sur l'atelier de fabrication de l'étoile LED pour la cathédrale Notre-Dame.
L'étoile de Noël de 8 mètres de haut qui illumine la cathédrale Notre-Dame de Hô Chi Minh-Ville est particulièrement impressionnante.
Huynh Nhu entre dans l'histoire aux Jeux d'Asie du Sud-Est : un record qui sera très difficile à battre.
La magnifique église située sur la route 51 était illuminée pour Noël, attirant l'attention de tous les passants.

Même auteur

Patrimoine

Chiffre

Entreprise

Les agriculteurs du village floral de Sa Dec s'affairent à soigner leurs fleurs en prévision du festival et du Têt (Nouvel An lunaire) 2026.

Actualités

Système politique

Locale

Produit