Das soziale Netzwerk X musste Suchanfragen nach Taylor Swift blockieren, nachdem Deepfake-Pornobilder der Sängerin viral gingen. Bei der Suche nach Taylor Swift auf der X-Plattform wird den Nutzern eine Fehlermeldung angezeigt und sie werden aufgefordert, die Seite neu zu laden. Joe Benarroch, Director of Business Operations bei X, erklärte, dies sei eine vorläufige Maßnahme und werde mit Vorsicht durchgeführt.

ofdhxx6v.png
Nacktfotos von Taylor Swift, die von KI erstellt wurden, überschwemmten X und Facebook, bevor sie gelöscht wurden. (Foto: Reuters)

KI-generierte pornografische Bilder von Taylor Swift kursierten am 24. Januar auf X. Fans der Sängerin posteten daraufhin eine Reihe echter Fotos des Stars, um den Deepfake zu „übertönen“. Sie forderten X außerdem auf, diese Fotos stärker zu löschen und Konten zu melden, die gefälschte Fotos teilen. Der Slogan „Schützt Taylor Swift“ wurde ebenfalls zum Top-Trend auf der Plattform.

Einen Tag später wurden die gemeldeten Konten gesperrt oder eingeschränkt, aber es war immer noch einfach, KI-Pornos auf X zu finden.

In einer Erklärung vom Wochenende erklärte X, dass die Weitergabe von Bildern ohne die Erlaubnis der Betroffenen verboten sei und eine Null-Toleranz-Politik für derartige Inhalte verfolgt werde. Swift wurde in der Erklärung nicht namentlich erwähnt.

„Unser Team entfernt aktiv alle identifizierten Bilder und ergreift entsprechende Maßnahmen gegen die Konten, die sie veröffentlicht haben. Wir werden die Situation genau beobachten, um sicherzustellen, dass weitere Verstöße sofort behoben und die Inhalte entfernt werden“, sagte X.

Fortschritte in der generativen KI haben es einfacher gemacht, pornografische Bilder anderer Menschen zu fälschen. Nachdem X 2022 unter die Kontrolle von Elon Musk gelangte, wurden viele Zensurbestimmungen gelockert, während er Tausende von Mitarbeitern entließ, um seine Finanzen zu stabilisieren.

Laut NBC News ist unklar, woher die Deepfake-Bilder von Taylor Swift stammen. Sie wurden jedoch mit einem Wasserzeichen versehen, um darauf hinzuweisen, dass sie von einer Website stammen, die für die Verbreitung gefälschter pornografischer Bilder von Prominenten bekannt ist. Die Website verfügt auch über einen eigenen Bereich für KI-Deepfakes. Die gefälschten Fotos von Swift wurden 19 Stunden nach ihrer Veröffentlichung über 27 Millionen Mal angesehen und über 260.000 Mal geliked.

Nach dem Vorfall forderte Microsoft-CEO Satya Nadella strengere Maßnahmen zur Regulierung von KI. In einem Interview mit NBC News argumentierte er, wir hätten die Verantwortung, diese neue Technologie zu überwachen, damit mehr sichere Inhalte produziert werden könnten.

Auf eine Frage zu Swifts Deepfake antwortete der Microsoft-Chef: „Ja, wir müssen handeln. Ich denke, wir alle profitieren von einer sicheren Online- Welt . Ich glaube nicht, dass irgendjemand eine Online-Welt will, die sowohl für die Ersteller als auch für die Konsumenten von Inhalten völlig unsicher ist. Daher denke ich, dass wir in dieser Angelegenheit schnell handeln müssen.“

Laut 404 Media gab eine Telegram-Chatgruppe an, das KI-basierte Designer-Tool von Microsoft verwendet zu haben, um Taylors Foto zu fälschen. Nadella äußerte sich nicht direkt zu den Informationen von 404 Media, doch Microsoft teilte in einer Erklärung gegenüber der Nachrichtenseite mit, dass man den Bericht untersuche und entsprechende Maßnahmen ergreifen werde.

Die Regierung von US-Präsident Joe Biden bezeichnete die Verbreitung des pornografischen Deepfakes von Taylor Swift als „alarmierend“ und forderte Social-Media-Unternehmen auf, ihre „wichtige Rolle“ bei der Durchsetzung von Vorschriften zur Verhinderung der Verbreitung falscher Informationen und sensibler Bilder ohne Zustimmung zu überprüfen.

Im Oktober 2023 unterzeichnete Präsident Biden eine Durchführungsverordnung zur KI, die sich auf die Regulierung neuer Technologien und ihrer Risiken konzentriert.

(Laut The Hill, WSJ)