Nick Clegg, Präsident für globale Angelegenheiten bei Meta, sagte, das Unternehmen werde eine Reihe von Markierungen verwenden, die in die Dateien integriert sind. Das Unternehmen werde alle auf seinen Diensten Facebook, Instagram und Threads veröffentlichten Inhalte mit Etiketten versehen, um den Nutzern zu signalisieren, dass Bilder (die wie echte Fotos aussehen mögen) in Wirklichkeit digitale Kreationen künstlicher Intelligenz sind. Laut Reuters hat das Unternehmen auch Inhalte gekennzeichnet, die mit seinen eigenen KI-Tools erstellt wurden.
Sobald das neue System einsatzbereit ist, wird Meta dasselbe für Bilder tun, die mit Diensten von OpenAI, Microsoft, Adobe, Midjourney, Shutterstock und Alphabet generiert werden. Die Ankündigung ist die erste Neuigkeit eines neuen Standards, den Technologieunternehmen entwickeln, um die Gefahren generativer KI zu mindern, die selbst aus einfachen Inhalten gefälschte Inhalte erstellen kann.
KI-generierte Bildbeschriftung hilft, Fehlinformationen und Betrug einzudämmen
Der Ansatz basiert auf einem Muster, das Unternehmen im letzten Jahrzehnt entwickelt haben, um die Entfernung verbotener Inhalte auf Plattformen zu koordinieren, etwa Darstellungen von Massengewalt und Kindesausbeutung.
Clegg ist davon überzeugt, dass Unternehmen KI-generierte Bilder mittlerweile zuverlässig kennzeichnen können, weist jedoch darauf hin, dass sich ausgefeiltere Kennzeichnungstools für Audio- und Videoinhalte noch in der Entwicklung befinden.
Meta wird von den Benutzern künftig verlangen, veränderte Audio- und Videoinhalte zu kennzeichnen und Strafen verhängen, wenn sie dies nicht tun. Clegg sagte jedoch, dass es derzeit keinen praktikablen Mechanismus zur Kennzeichnung von Text gibt, der von KI-Tools wie ChatGPT generiert wird.
Der unabhängige Aufsichtsausschuss von Meta kritisierte die Unternehmenspolitik in Bezug auf irreführend bearbeitete Videos und meinte, Inhalte sollten gekennzeichnet und nicht entfernt werden. Clegg meinte daher, Metas neuer Schritt könne zu einer besseren Klassifizierung solcher Inhalte beitragen.
[Anzeige_2]
Quellenlink
Kommentar (0)