Vietnam.vn - Nền tảng quảng bá Việt Nam

Wie man den Unterschied zwischen einem echten Video und einem von einer KI erstellten Video erkennt.

Da Sora AI es jedem ermöglicht, hyperrealistische Deepfake-Videos zu erstellen, ist die Unterscheidung zwischen echten und gefälschten (Deepfake-)Videos zu einer entscheidenden Überlebensfähigkeit im digitalen Zeitalter geworden.

VTC NewsVTC News26/10/2025

Wer schon einmal in sozialen Medien unterwegs war, ist wahrscheinlich auf KI-generierte Bilder oder Videos gestoßen. Viele wurden getäuscht, wie beispielsweise durch das virale Video von Kaninchen, die auf einem Trampolin springen. Doch Sora – eine Schwester-App von ChatGPT, entwickelt von OpenAI – hebt KI-Video auf ein neues Niveau und macht die Erkennung von gefälschten Inhalten immer dringlicher.

KI-gestützte Videotools erschweren es mehr denn je, authentische Videos zu erkennen. (Quelle: CNET)

KI-gestützte Videotools erschweren es mehr denn je, authentische Videos zu erkennen. (Quelle: CNET)

Die 2024 gestartete und kürzlich mit Sora 2 aktualisierte App verfügt über eine TikTok-ähnliche Benutzeroberfläche, wobei alle Videos KI-generiert sind. Die „Cameo“-Funktion ermöglicht es, echte Personen in simuliertes Videomaterial einzufügen und so erschreckend realistische Videos zu erstellen.

Viele Experten befürchten daher, dass Sora die Verbreitung von Deepfakes begünstigen und so Informationen verfälschen und die Grenzen zwischen Realität und Fiktion verwischen wird. Prominente sind besonders gefährdet, weshalb Organisationen wie SAG-AFTRA OpenAI auffordern, den Schutz zu verstärken.

Die Identifizierung KI-generierter Inhalte stellt Technologieunternehmen, Social-Media-Plattformen und Nutzer gleichermaßen vor große Herausforderungen. Es gibt jedoch Möglichkeiten, mit Sora erstellte Videos zu erkennen.

Find Sora-Wasserzeichen

Das Sora-Wasserzeichen (gekennzeichnet durch den blauen Pfeil) ist ein Kennzeichen, das das zur Videoerstellung verwendete Tool identifiziert. (Quelle: CNET)

Das Sora-Wasserzeichen (gekennzeichnet durch den blauen Pfeil) ist ein Kennzeichen, das das zur Videoerstellung verwendete Tool identifiziert. (Quelle: CNET)

Jedes mit der Sora iOS-App erstellte Video hat beim Herunterladen ein Wasserzeichen – das weiße Sora-Logo (Wolken-Symbol) bewegt sich an den Rändern des Videos entlang, ähnlich wie beim TikTok-Wasserzeichen.

Dies ist eine visuelle Methode, um KI-generierte Inhalte zu erkennen. Googles Gemini-Modell, das an eine Nano-Banane erinnert, fügt beispielsweise automatisch ein Wasserzeichen zu Bildern hinzu. Wasserzeichen sind jedoch nicht immer zuverlässig. Statische Wasserzeichen lassen sich leicht entfernen. Selbst dynamische Wasserzeichen wie das von Sora können mithilfe spezieller Anwendungen entfernt werden.

Auf die Frage danach argumentierte OpenAI-CEO Sam Altman, dass sich die Gesellschaft an die Realität anpassen müsse, dass jeder gefälschte Videos erstellen kann. Vor Sora gab es kein Tool, das so populär und zugänglich war und für dessen Erstellung keine besonderen Kenntnisse erforderlich waren. Seine Sichtweise unterstreicht die Notwendigkeit, auf alternative Verifizierungsmethoden zurückzugreifen.

Metadaten prüfen

Überprüfung der Metadaten – ein entscheidender Schritt, um festzustellen, ob ein Video von einer KI wie Sora erstellt wurde. (Quelle: Canto)

Überprüfung der Metadaten – ein entscheidender Schritt, um festzustellen, ob ein Video von einer KI wie Sora erstellt wurde. (Quelle: Canto)

Man könnte meinen, die Überprüfung von Metadaten sei zu kompliziert, aber in Wirklichkeit ist sie recht einfach und sehr effektiv.

Metadaten sind Informationen, die beim Erstellen von Inhalten automatisch hinzugefügt werden, wie z. B. Kameratyp, Aufnahmeort, Aufnahmezeitpunkt und Dateiname. Unabhängig davon, ob die Inhalte von Menschen oder KI erstellt wurden, enthalten sie Metadaten. Bei KI-generierten Inhalten enthalten die Metadaten häufig auch Angaben zur Quelle.

OpenAI ist Mitglied der Coalition for Content Origin and Authenticity (C2PA), daher enthalten Sora-Videos C2PA-Metadaten. Sie können dies mit dem Verifizierungstool der Content Authenticity Initiative überprüfen:

So prüfen Sie Metadaten:

  • Besuchen Sie verify.contentauthenticity.org
  • Laden Sie die zu prüfende Datei hoch.
  • „Öffnen“ drücken
  • Siehe die Informationen in der Tabelle auf der rechten Seite.

Wurde das Video von einer KI erstellt, wird dies in der Zusammenfassung deutlich angegeben. Bei Sora-Videos sehen Sie den Hinweis „Veröffentlicht von OpenAI“ sowie Informationen, die bestätigen, dass das Video mithilfe einer KI erstellt wurde. Alle Sora-Videos müssen diese Informationen enthalten, um ihre Herkunft zu verifizieren.

Herr Quang

Quelle: https://vtcnews.vn/cach-nhan-biet-video-that-hay-do-ai-tao-ar972891.html


Kommentar (0)

Hinterlasse einen Kommentar, um deine Gefühle zu teilen!

Gleiches Thema

Gleiche Kategorie

Nahaufnahme der Werkstatt, in der der LED-Stern für die Kathedrale Notre Dame hergestellt wird.
Besonders beeindruckend ist der 8 Meter hohe Weihnachtsstern, der die Notre-Dame-Kathedrale in Ho-Chi-Minh-Stadt erleuchtet.
Huynh Nhu schreibt bei den Südostasienspielen Geschichte: Ein Rekord, der nur sehr schwer zu brechen sein wird.
Die atemberaubende Kirche an der Highway 51 war zur Weihnachtszeit festlich beleuchtet und zog die Blicke aller Vorbeifahrenden auf sich.

Gleicher Autor

Erbe

Figur

Unternehmen

Die Bauern im Blumendorf Sa Dec sind damit beschäftigt, ihre Blumen für das Festival und Tet (Mondneujahr) 2026 vorzubereiten.

Aktuelles

Politisches System

Lokal

Produkt