Das soziale Netzwerk X musste Suchanfragen nach Taylor Swift blockieren, nachdem Deepfake-Pornobilder der Sängerin viral gingen. Bei der Suche nach Taylor Swift auf der X-Plattform erhalten Nutzer eine Fehlermeldung und werden aufgefordert, die Seite neu zu laden. Joe Benarroch, Betriebsleiter von X, erklärte, dies sei eine vorläufige Maßnahme und aus Vorsicht geschehen.
KI-generierte pornografische Bilder von Taylor Swift kursierten am 24. Januar auf X. Fans der Sängerin posteten daraufhin eine Reihe echter Fotos des Stars, um den Deepfake zu „übertönen“. Sie forderten X außerdem auf, diese Fotos stärker zu löschen und Konten zu melden, die gefälschte Fotos teilen. Der Slogan „Schützt Taylor Swift“ wurde ebenfalls zum Top-Trend auf der Plattform.
Einen Tag später wurden die gemeldeten Konten gesperrt oder eingeschränkt, aber es war immer noch einfach, KI-Pornos auf X zu finden.
In einer Erklärung vom Wochenende erklärte X, dass die Weitergabe von Bildern ohne die Erlaubnis der Betroffenen verboten sei und eine Null-Toleranz-Politik für solche Inhalte verfolgt werde. Swift wurde in der Erklärung nicht namentlich erwähnt.
„Unser Team entfernt aktiv alle identifizierten Bilder und ergreift entsprechende Maßnahmen gegen die Konten, die sie veröffentlicht haben. Wir werden die Situation genau beobachten, um sicherzustellen, dass weitere Verstöße sofort behoben und die Inhalte entfernt werden“, sagte X.
Fortschritte in der generativen KI haben es einfacher gemacht, pornografische Bilder anderer Personen zu fälschen. Mit X wurden nach der Übernahme durch Elon Musk im Jahr 2022 viele Zensurbestimmungen gelockert, während er Tausende von Mitarbeitern entließ, um seine Finanzen zu stabilisieren.
Es ist unklar, woher die Taylor-Swift-Deepfakes stammen, doch laut NBC News waren sie mit einem Wasserzeichen versehen, um darauf hinzuweisen, dass sie von einer Website stammten, die für die Verbreitung gefälschter Promi-Pornobilder bekannt ist. Die Website hat sogar einen eigenen Bereich für KI-Deepfakes. Swifts gefälschte Fotos wurden innerhalb von 19 Stunden nach ihrer Veröffentlichung über 27 Millionen Mal angesehen und über 260.000 Mal geliked.
Nach dem Vorfall forderte Microsoft-CEO Satya Nadella die Einführung strengerer Schutzmaßnahmen zur Regulierung von KI. In einem Interview mit NBC News argumentierte er, wir hätten die Verantwortung, diese neue Technologie zu überwachen, damit sicherere Inhalte produziert werden könnten.
Auf eine Frage zu Swifts Deepfake sagte der Microsoft-Chef: „Ja, wir müssen handeln. Ich denke, wir alle profitieren von einer sicheren Online- Welt . Ich glaube nicht, dass irgendjemand eine völlig unsichere Online-Welt will, weder für Inhaltsersteller noch für Inhaltskonsumenten. Daher denke ich, dass wir in dieser Angelegenheit schnell handeln müssen.“
Laut 404 Media gab eine Telegram-Chatgruppe an, das KI-basierte Designer-Tool von Microsoft verwendet zu haben, um Taylors Foto zu fälschen. Nadella äußerte sich nicht direkt zu den Informationen von 404 Media. Microsoft teilte der Nachrichtenseite jedoch in einer Stellungnahme mit, dass man den Bericht untersuche und entsprechende Maßnahmen ergreifen werde.
Die Biden-Regierung bezeichnete die Verbreitung des pornografischen Deepfakes von Taylor Swift als „alarmierend“ und forderte Social-Media-Unternehmen auf, ihre „wichtige Rolle“ bei der Durchsetzung von Vorschriften zur Verhinderung der Verbreitung falscher Informationen und sensibler Bilder ohne Zustimmung zu überprüfen.
Im Oktober 2023 unterzeichnete Präsident Biden eine Durchführungsverordnung zur KI, die sich auf die Regulierung neuer Technologien und ihrer Risiken konzentriert.
(Laut The Hill, WSJ)
[Anzeige_2]
Quelle
Kommentar (0)