TikTok fordert die Ersteller auf, KI-Inhalte zu kennzeichnen oder warnt sie, dass Inhalte entfernt werden könnten, wenn der Einsatz von KI-Tools nicht offengelegt wird. Das Unternehmen kündigte außerdem an, diese Woche mit dem Testen einer Methode zur automatischen Kennzeichnung von KI-generierten Inhalten zu beginnen.
TikTok verlangt von den Erstellern von Videos und Bildern, die KI verwenden, eine Erklärung, wenn sie die Kennzeichnung vergessen, andernfalls könnten die Inhalte entfernt werden.
Dadurch können die Zuschauer erkennen, ob die Videos und Bilder echt sind oder mit KI-Software erstellt wurden.
Die Richtlinie könnte erhebliche Auswirkungen auf Entwickler haben, die KI-Tools verwenden. Sie zielt darauf ab, die Verbreitung von Deepfake-Inhalten zu verhindern, die auf Social-Media-Plattformen zu einem wachsenden Problem geworden sind.
Deepfakes sind Videos, die mithilfe von KI Bilder und Clips bearbeiten oder Gesichter und Stimmen der Personen im Video ersetzen, um den Inhalt origineller und vielfältiger zu gestalten. Sie können jedoch auch zur Erstellung von Fake News, Verzerrungen oder anderen böswilligen Zwecken verwendet werden. Indem TikTok von den Erstellern verlangt, KI-generierte Inhalte zu kennzeichnen, hilft es den Zuschauern laut Gizchina, zwischen echten und gefälschten Inhalten zu unterscheiden.
Die neue Richtlinie von TikTok ist Teil der laufenden Bemühungen, Transparenz und Authentizität auf seiner Plattform zu fördern. Das Unternehmen wurde zuvor für seine mangelnde Transparenz hinsichtlich seiner Algorithmen und Inhaltsmoderation kritisiert. Indem TikTok von den Entwicklern verlangt, offenzulegen, ob sie KI verwenden, strebt das Unternehmen mehr Transparenz und Rechenschaftspflicht an.
[Anzeige_2]
Quellenlink
Kommentar (0)