Vietnam.vn - Nền tảng quảng bá Việt Nam

Deepfake-Pornos, ein Problem im KI-Rennen

Công LuậnCông Luận17/04/2023

[Anzeige_1]

Deepfakes sind Videos und Bilder, die mithilfe künstlicher Intelligenz (KI) oder maschinellem Lernen (ML) digital erstellt oder verändert werden. Mit dieser Technologie erstellte Pornografie verbreitete sich erstmals vor einigen Jahren im Internet, als ein Reddit-Nutzer gefälschte Pornoclips mit den Gesichtern von Prominenten teilte.

Deepfake ist im Wettbewerb immer noch schwierig Bild 1

Foto: GI

Jeder kann ein Opfer sein.

Seitdem veröffentlichen Deepfake-Ersteller weiterhin ähnliche Videos und Bilder, die sich gegen Online-Influencer, Journalisten und andere Personen mit öffentlichen Profilen richten. Tausende solcher Videos existieren auf zahlreichen Websites.

Da KI-Technologien immer zugänglicher werden, können Benutzer jeden beliebigen Menschen ohne dessen Zustimmung in „Pornostars“ verwandeln oder, was noch gefährlicher ist, die Technologie nutzen, um andere zu diffamieren oder zu erpressen.

Experten gehen davon aus, dass sich das Problem durch die Entwicklung generativer KI-Tools noch verschärfen könnte, die anhand von Milliarden von Bildern aus dem Internet trainiert werden und mithilfe vorhandener Daten neue Inhalte generieren.

„Die Realität ist, dass sich die Technologie weiter verbreiten, weiterentwickeln und immer leichter verfügbar und zugänglicher werden wird“, sagte Adam Dodge, Gründer von EndTAB, einer Gruppe, die Schulungen zum Thema Technologiemissbrauch anbietet. „Und solange das so weitergeht, werden Menschen diese Technologie zweifellos weiterhin missbrauchen, um anderen zu schaden, vor allem durch sexuelle Gewalt im Internet, Deepfake-Pornografie und gefälschte Nacktbilder.“

Noelle Martin aus Perth, Australien, hat diese Realität erlebt. Die 28-Jährige entdeckte vor zehn Jahren Deepfake-Pornos von sich selbst, als sie eines Tages aus Neugierde ihr eigenes Bild googelte. Bis heute, sagt Martin, habe sie keine Ahnung, wer die gefälschten Pornobilder oder -videos erstellt habe. Sie vermutet, dass jemand ihre Social-Media-Bilder verwendet hat, um Pornovideos zu erstellen.

Martin versuchte, die Websites zu kontaktieren, um die Videos entfernen zu lassen, doch ihre Bemühungen waren vergeblich. Einige reagierten nicht. Andere nahmen sie zwar herunter, veröffentlichten sie aber schnell wieder. „Man kann nicht gewinnen“, sagte Frau Martin. „Die Videos werden für immer im Internet sein und können einem das Leben ruinieren.“

Bemühungen der Technologieunternehmen, das Problem zu beheben

Einige KI-Modelle geben an, dass sie nur eingeschränkten Zugriff auf pornografische Bilder haben.

OpenAI gab an, pornografische Inhalte aus den Daten entfernt zu haben, die zum Training seines DALL-E-Bildgenerators verwendet wurden. Dies soll die Wahrscheinlichkeit eines Missbrauchs verringern. Das Unternehmen filtert außerdem Anfragen und hindert Nutzer nach eigenen Angaben daran, KI-Bilder von Prominenten und prominenten Politikern zu erstellen. Ein weiteres Modell, Midjourney, blockiert ebenfalls die Verwendung bestimmter Schlüsselwörter und ermutigt Nutzer, problematische Bilder den Moderatoren zu melden.

Inzwischen hat Stability AI auch ein Update veröffentlicht, das Benutzer daran hindert, explizite Bilder zu erstellen. Diese Änderungen erfolgen nach Berichten, wonach einige Benutzer die Technologie nutzten, um von Prominenten inspirierte Aktfotos zu erstellen.

Motez Bishara, Sprecher von Stability AI, sagte, der Filter nutze eine Kombination aus Schlüsselwörtern und anderen Techniken wie Bilderkennung, um Nacktheit zu erkennen. Nutzer können die Software jedoch nach Belieben anpassen , da das Unternehmen den Open-Source-Code der App veröffentlicht hat.

Einige Social-Media-Unternehmen haben zudem ihre Regeln verschärft, um ihre Plattformen besser vor schädlichem Material zu schützen.

Letzten Monat erklärte TikTok, dass alle Deepfakes oder manipulierten Inhalte gekennzeichnet werden müssen, um darauf hinzuweisen, dass sie gefälscht oder in irgendeiner Weise verändert sind.

Auch die Gaming-Plattform Twitch hat kürzlich ihre Richtlinien zu Deepfake-Bildern aktualisiert, nachdem ein beliebter Streamer namens Atrioc dabei erwischt wurde, wie er während eines Livestreams Ende Januar in seinem Browser eine Deepfake-Pornoseite öffnete.

Apple und Google gaben an, dass sie kürzlich eine App aus ihren App Stores entfernt hätten, weil sie sexuell anzügliche Deepfake-Videos zur Vermarktung ihrer Produkte gezeigt habe.

Vom westlichen Sänger zum K-Pop-Idol.

Forschung zu Deepfake-Pornos ist selten, doch ein Bericht des KI-Unternehmens DeepTrace Labs aus dem Jahr 2019 ergab, dass diese fast ausschließlich als Waffe gegen Frauen eingesetzt wurden. Am stärksten betroffen waren westliche Schauspielerinnen, gefolgt von K-Pop-Sängerinnen.

Meta-Sprecher Dani Lever sagte in einer Erklärung, dass die Richtlinien des Unternehmens sowohl KI- als auch nicht-KI-generierte Inhalte für Erwachsene einschränken und dass die Seite der Deepfake-generierenden App keine Werbung auf ihrer Plattform schalten darf.

Im Februar begannen Meta sowie Erotikseiten wie Only**** und Porn***, sich an einem Online-Tool namens Take It Down zu beteiligen, mit dem Jugendliche sexuell explizite Bilder und Videos von sich selbst im Internet melden können. Die Seite unterstützt sowohl heimlich gefilmte als auch KI-generierte Videos.

Hoang Ton (laut AP)


[Anzeige_2]
Quelle

Kommentar (0)

No data
No data

Gleiche Kategorie

Atemberaubend schöne Terrassenfelder im Luc Hon-Tal
„Edle“ Blumen im Wert von 1 Million VND sind am 20. Oktober immer noch beliebt
Vietnamesische Filme und der Weg zu den Oscars
Junge Leute reisen in den Nordwesten, um während der schönsten Reissaison des Jahres einzuchecken

Gleicher Autor

Erbe

Figur

Geschäft

Junge Leute reisen in den Nordwesten, um während der schönsten Reissaison des Jahres einzuchecken

Aktuelle Veranstaltungen

Politisches System

Lokal

Produkt