
YouTube führt den Zugriff auf Tools zur Ähnlichkeitserkennung für Ersteller ein und wird diesen erweitern
Die zunehmende Verbreitung von Deepfake -Videos lässt die Grenze zwischen echt und gefälscht verschwimmen. Von Prominenten bis hin zu Content-Erstellern kann jeder dieser Technologie zum Opfer fallen.
Angesichts dieser Realität versuchen YouTube und viele andere Online-Plattformen, ein Gleichgewicht zwischen kreativer Freiheit und Kontrolle über die digitale Identität zu finden.
YouTube testet KI-Tool zur Identitätserkennung
YouTube hat eine neue Funktion namens „Ähnlichkeitserkennung“ eingeführt, die grob übersetzt die Erkennung von Gesichts- und Stimmähnlichkeiten ermöglicht. Wenn Ersteller Videos entdecken, die gefälscht erscheinen, können sie über dieses Tool direkt Verifizierungsanfragen stellen.
Das System vergleicht mithilfe eines KI-Modells Gesichts- und Stimmdaten mit dem Originalprofil des Anfragenden. Bei einer hohen Übereinstimmung wird das Video zur weiteren Überprüfung an die Moderationsabteilung von YouTube weitergeleitet.
Dies trägt dazu bei, die Wahrscheinlichkeit zu verringern, dass gültige Inhalte versehentlich gelöscht werden, und erhöht gleichzeitig die Genauigkeit der Deepfake-Erkennung.
Im Gegensatz zu früheren Tools zur Meldung von Urheberrechtsverletzungen oder anderen rechtsverletzenden Inhalten konzentriert sich die neue Erkennungsfunktion auf die persönliche Identität. Die Person, die sich als solche ausgibt, muss nicht den Besitz des Bildes oder Inhalts nachweisen, sondern lediglich die unbefugte Verwendung ihres Gesichts oder ihrer Stimme bestätigen.
YouTube gibt an, dass das Tool den Machern die Kontrolle zurückgeben soll, da immer mehr Videos Bild- und Sprachsynthesetechnologie verwenden, die es den Zuschauern erschwert, zwischen echten und gefälschten Videos zu unterscheiden. Das Tool soll schrittweise in den USA eingeführt werden, bevor es im nächsten Jahr auf andere Regionen ausgeweitet wird.
Schritte zur Bekämpfung der Deepfake-Welle
Deepfakes sind längst nicht mehr auf Unterhaltungsvideos oder Satire beschränkt. In nur wenigen Jahren wurde die Technologie für Betrug, politische Zwecke und Informationsmanipulation eingesetzt. Zahlreiche Fälle, in denen Prominente in Anzeigen oder sensiblen Inhalten ihre Gesichter abgeschnitten oder sogar ihre Stimmen gefälscht haben, haben Zweifel an der Zuverlässigkeit dessen geweckt, was sie online sehen.
Angesichts dieser Welle versuchten die Social-Media-Plattformen gleichzeitig zu reagieren. Meta kündigte Pläne an, von künstlicher Intelligenz erstellte Videos als „KI-generiert“ zu kennzeichnen, während TikTok seinem Bereich zur Meldung von Verstößen einen Abschnitt „KI-generiert“ hinzufügte, um es Nutzern zu erleichtern, auf gefälschte Videos zu reagieren. Für YouTube ist dies ein Schritt, der seine proaktiven Bemühungen zeigt, mit der weit verbreiteten und unkontrollierbaren Welle von Deepfakes umzugehen.
Die Einführung dieser Funktion zeigt auch, dass YouTube versucht, die Standards des Content-Managements im Zeitalter der künstlichen Intelligenz neu zu definieren. Die Plattform kümmert sich nicht nur um rechtsverletzende Videos, sondern schafft auch einen Mechanismus, der den Urhebern eine Stimme beim Schutz ihrer digitalen Identität gibt.
Einige Medienexperten sehen darin ein Zeichen dafür, dass Technologieunternehmen begonnen haben, von der Phase der „Anpassung an KI“ zur Phase der „Kontrolle der Auswirkungen von KI“ überzugehen.
Die Implementierung von Deepfake-Erkennungstools auf globaler Ebene ist jedoch nicht einfach. Unterschiede in den Datenschutzgesetzen der einzelnen Länder und die Komplexität der Bestimmung schädlicher gefälschter Inhalte stellen für YouTube bei der Implementierung eine Herausforderung dar.
Die Grenze zwischen Kreativität und Zensur
Der Kampf gegen Deepfakes wirft Fragen nach den Grenzen der Content-Erstellung auf. Viele Videoproduzenten befürchten, dass automatisierte Erkennungstools legitime KI-basierte Produkte wie Kurzfilme oder Demonstrationsvideos beeinträchtigen könnten. Da die Grenze zwischen Kreativität und Fälschung zunehmend verschwimmt, müssen Plattformen Wege finden, Nutzer zu schützen, ohne die kreative Freiheit einzuschränken.
YouTube betont, dass das Erkennungstool nicht dazu dienen soll, die Kreativität einzuschränken, sondern das Recht auf Kontrolle über das eigene Bild zu schützen. Experten meinen jedoch, dass es weiterhin eine große Herausforderung bleiben wird, zu bestimmen, was schädlich und was legitim ist.
Das Rennen zwischen der Technologie zur Erstellung von Fälschungen und der Technologie zur Erkennung von Fälschungen wird wahrscheinlich weitergehen, und das neue Tool von YouTube ist nur ein kleiner Schritt in dem Bemühen, das Echte in einem zunehmend virtuellen Zeitalter zu bewahren.
Quelle: https://tuoitre.vn/youtube-tung-cong-cu-likeness-detection-bao-ve-hinh-anh-va-giong-noi-truoc-deepfake-20251023163915973.htm






Kommentar (0)