Wenn Sie schon einmal durch soziale Medien gescrollt haben, sind Sie wahrscheinlich schon auf ein KI-generiertes Bild oder Video gestoßen. Viele wurden getäuscht, wie zum Beispiel das virale Video von Kaninchen, die auf einem Trampolin springen. Doch Sora, die von OpenAI entwickelte Schwester-App von ChatGPT, hebt KI-Videos auf die nächste Stufe und macht es unerlässlich, gefälschte Inhalte zu erkennen.

KI-Videotools machen es schwieriger denn je, zu erkennen, was echt ist. (Quelle: CNET)
Die App wurde 2024 eingeführt und kürzlich mit Sora 2 aktualisiert. Sie verfügt über eine TikTok-ähnliche Oberfläche, bei der jedes Video KI-generiert wird. Die „Cameo“-Funktion ermöglicht es, echte Menschen in das simulierte Filmmaterial einzufügen und so Videos zu erstellen, die so realistisch sind, dass sie Angst machen.
Viele Experten befürchten daher, dass Sora Deepfakes verbreiten wird, die Verwirrung stiften und die Grenzen zwischen echt und falsch verwischen. Prominente sind besonders gefährdet. Organisationen wie SAG-AFTRA fordern daher OpenAI auf, den Schutz zu verstärken.
Die Identifizierung von KI-Inhalten stellt sowohl für Technologieunternehmen als auch für soziale Netzwerke und Nutzer eine große Herausforderung dar. Es gibt jedoch Möglichkeiten, mit Sora erstellte Videos zu erkennen.
Sora-Wasserzeichen finden

Das Sora-Wasserzeichen (grüner Pfeil nach innen) dient als Hinweis darauf, mit welchem Tool das Video erstellt wurde. (Quelle: CNET)
Jedes mit der Sora iOS-App erstellte Video erhält beim Herunterladen ein Wasserzeichen – ein weißes Sora-Logo (Wolkensymbol), das sich um die Ränder des Videos bewegt, ähnlich dem Wasserzeichen von TikTok.
Dies ist eine intuitive Methode, KI-generierte Inhalte zu erkennen. Beispielsweise versieht Googles Gemini-Modell „Nano Banana“ Bilder automatisch mit Wasserzeichen. Wasserzeichen sind jedoch nicht immer zuverlässig. Statische Wasserzeichen lassen sich leicht entfernen. Selbst dynamische Wasserzeichen wie das von Sora lassen sich mit speziellen Apps entfernen.
Auf Nachfrage sagte OpenAI-CEO Sam Altman, die Gesellschaft müsse sich an die Tatsache gewöhnen, dass jeder Fake-Videos erstellen könne. Vor Sora gab es kein solches Tool, das allgemein verfügbar, zugänglich und ohne Vorkenntnisse zugänglich war. Seiner Ansicht nach müsse man auf andere Verifizierungsmethoden zurückgreifen.
Metadaten prüfen

Die Überprüfung der Metadaten ist ein wichtiger Schritt, um festzustellen, ob ein Video von einer KI wie Sora erstellt wurde. (Quelle: Canto)
Sie denken vielleicht, dass die Überprüfung von Metadaten zu kompliziert ist, aber eigentlich ist es ganz einfach und sehr effektiv.
Metadaten sind Informationen, die bei der Erstellung automatisch an Inhalte angehängt werden, wie z. B. Kameratyp, Standort, Aufnahmezeit und Dateiname. Unabhängig davon, ob es sich um von Menschen oder KI erstellte Inhalte handelt, sind Metadaten enthalten. Bei KI-Inhalten begleiten Metadaten häufig Informationen, die deren Herkunft authentifizieren.
OpenAI ist Mitglied der Content Provenance and Authentication Alliance (C2PA), daher enthalten Sora-Videos C2PA-Metadaten. Sie können dies mit dem Verifizierungstool der Content Authentication Initiative überprüfen:
So überprüfen Sie Metadaten:
- verify.contentauthenticity.org besuchen
- Laden Sie die zu prüfende Datei hoch
- Klicken Sie auf „Öffnen“.
- Informationen finden Sie in der Tabelle rechts.
Wenn das Video von KI erstellt wurde, wird dies in der Zusammenfassung vermerkt. Wenn Sie ein Sora-Video überprüfen, sehen Sie „Veröffentlicht von OpenAI“ und Informationen, die bestätigen, dass das Video mit KI erstellt wurde. Alle Sora-Videos müssen diese Informationen enthalten, um ihre Herkunft zu verifizieren.
Quelle: https://vtcnews.vn/cach-nhan-biet-video-that-hay-do-ai-tao-ar972891.html






Kommentar (0)