Vietnam.vn - Nền tảng quảng bá Việt Nam

Deepfake-Pornos, das Problem im KI-Rennen

Công LuậnCông Luận17/04/2023

[Anzeige_1]

Deepfakes sind Videos und Bilder, die mithilfe künstlicher Intelligenz (KI) oder maschinellem Lernen (ML) digital erstellt oder verändert werden. Technologisch erzeugte Pornografie begann vor einigen Jahren im Internet zu kursieren, als ein Reddit-Benutzer gefälschte Pornoclips mit den Gesichtern von Prominenten teilte.

Deepfake-Belästigung in der Menschheitsgeschichte, Bild 1

Foto: GI

Jeder kann Opfer werden.

Seitdem veröffentlichen Deepfake-Ersteller weiterhin ähnliche Videos und Bilder, die sich gegen Online-Influencer, Journalisten und andere Personen mit öffentlichen Profilen richten. Auf vielen Websites gibt es Tausende solcher Videos.

Da KI-Technologien immer zugänglicher werden, können Benutzer jeden beliebigen Menschen ohne dessen Zustimmung in einen „Pornostar“ verwandeln oder, was noch gefährlicher ist, die Technologie nutzen, um andere zu diffamieren oder zu erpressen.

Experten gehen davon aus, dass sich das Problem durch die Entwicklung generativer KI-Tools noch verschärfen könnte, die anhand von Milliarden von Bildern aus dem Internet trainiert werden und mithilfe vorhandener Daten neue Inhalte generieren.

„Die Realität ist, dass sich die Technologie weiterhin verbreiten wird, dass sie sich weiterentwickeln wird und dass sie immer zugänglicher und benutzerfreundlicher wird“, sagte Adam Dodge, Gründer von EndTAB, einer Gruppe, die Schulungen zum Thema Technologiemissbrauch anbietet. „Und solange das passiert, werden die Menschen diese Technologie unweigerlich weiterhin missbrauchen, um anderen zu schaden, vor allem durch sexuelle Gewalt im Internet, Deepfake-Pornografie und gefälschte Nacktbilder.“

Noelle Martin aus Perth, Australien, hat diese Realität erlebt. Auf ihren eigenen pornografischen Deepfake stieß die 28-Jährige vor zehn Jahren, als sie eines Tages aus Neugierde ihr eigenes Bild googelte. Bis heute sagt Martin, sie habe keine Ahnung, wer diese gefälschten pornografischen Bilder oder Videos erstellt habe. Sie vermutet, dass jemand ihre Social-Media-Bilder verwendet hat, um pornografische Videos zu erstellen.

Obwohl Martin versuchte, die Websites zu kontaktieren, um diese Videos zu entfernen, waren seine Bemühungen vergeblich. Einige antworteten nicht. Andere wurden entfernt, aber schnell wieder veröffentlicht. „Sie können nicht gewinnen“, sagte Frau Martin. „Das wird für immer im Internet bleiben und könnte Ihr Leben ruinieren.“

Bemühungen der Technologieunternehmen, das Problem zu beheben

Einige KI-Modelle geben an, dass sie nur eingeschränkten Zugriff auf pornografische Bilder haben.

OpenAI erklärte, es habe pornografische Inhalte aus den Daten entfernt, die zum Trainieren seines DALL-E-Bildgenerators verwendet wurden, wodurch das Missbrauchspotenzial eingeschränkt werden sollte. Das Unternehmen filtert außerdem Anfragen und gibt an, dass es Benutzer daran hindert, KI-Bilder von Prominenten und hochrangigenPolitikern zu erstellen. Midjourney, ein anderes Modell, blockiert ebenfalls die Verwendung bestimmter Schlüsselwörter und fordert Benutzer auf, problematische Bilder den Moderatoren zu melden.

Mittlerweile hat Stability AI auch ein Update herausgebracht, das Benutzer daran hindert, sensible Bilder zu erstellen. Die Änderungen erfolgen nach Berichten, denen zufolge einige Benutzer mithilfe der Technologie von Prominenten inspirierte Nacktfotos erstellt hätten.

Motez Bishara, Sprecher von Stability AI, sagte, der Filter verwende eine Kombination aus Schlüsselwörtern und anderen Techniken wie Bilderkennung, um Nacktheit zu erkennen. Benutzer können die Software jedoch manipulieren und alles erstellen, was sie möchten, da das Unternehmen den Open-Source-Code für die App veröffentlicht hat.

Einige Social-Media-Unternehmen haben zudem ihre Regeln verschärft, um ihre Plattformen besser vor schädlichem Material zu schützen.

Letzten Monat erklärte TikTok, dass alle Deepfakes oder manipulierten Inhalte gekennzeichnet werden müssen, um darauf hinzuweisen, dass es sich um Fälschungen oder in irgendeiner Weise veränderte Inhalte handelt.

Auch die Gaming-Plattform Twitch hat kürzlich ihre Richtlinien zu Deepfakes aktualisiert, nachdem ein beliebter Streamer namens Atrioc dabei erwischt wurde, wie er während eines Livestreams Ende Januar in seinem Browser eine Deepfake-Pornoseite öffnete.

Apple und Google gaben bekannt, dass sie kürzlich eine App aus ihren App Stores entfernt hätten, weil diese zur Vermarktung ihrer Produkte sexuell anzügliche Deepfake-Videos abspielte.

Vom westlichen Sänger zum K-Pop-Idol.

Forschungen zu Deepfake-Pornos sind selten, doch ein 2019 veröffentlichter Bericht des KI-Unternehmens DeepTrace Labs ergab, dass diese fast ausschließlich als Waffe gegen Frauen eingesetzt werden. Am häufigsten wurden westliche Schauspielerinnen angegriffen, gefolgt von K-Pop-Sängerinnen.

Meta-Sprecher Dani Lever sagte in einer Erklärung, dass die Richtlinien des Unternehmens sowohl KI-generierte als auch nicht KI-generierte Inhalte für Erwachsene einschränken und dass außerdem Deepfake-generierende App-Seiten daran gehindert werden, auf seiner Plattform Werbung zu schalten.

Im Februar begannen Meta sowie Erotikseiten wie Only**** und Porn***, sich an einem Online-Tool namens Take It Down zu beteiligen, das es Teenagern ermöglicht, sexuell eindeutige Bilder und Videos von sich selbst aus dem Internet zu melden. Diese Site unterstützt sowohl heimlich gefilmte Videos als auch KI-generierte Videos.

Hoang Ton (laut AP)


[Anzeige_2]
Quelle

Kommentar (0)

No data
No data

Gleiche Kategorie

10.000 Antiquitäten versetzen Sie zurück ins alte Saigon
Der Ort, an dem Onkel Ho die Unabhängigkeitserklärung las
Wo Präsident Ho Chi Minh die Unabhängigkeitserklärung verlas
Erkunden Sie die Savanne im Nui Chua Nationalpark

Gleicher Autor

Erbe

Figur

Geschäft

No videos available

Nachricht

Politisches System

Lokal

Produkt