Deepfakes er videoer og bilder som er digitalt laget eller endret ved hjelp av kunstig intelligens (KI) eller maskinlæring (ML). Pornografi laget med teknologien begynte å sirkulere på internett for noen år siden da en Reddit-bruker delte falske pornoklipp med ansiktene til kjendiser.
Foto: GI
Hvem som helst kan være et offer.
Siden den gang har deepfake-skapere fortsatt å legge ut lignende videoer og bilder rettet mot nettbaserte influencere, journalister og andre med offentlige profiler. Tusenvis av slike videoer finnes på en rekke nettsteder.
Med stadig mer tilgjengelige AI-teknologier kan brukere gjøre hvem de vil om til «pornostjerner» uten deres samtykke, eller enda farligere, bruke teknologien til å ærekrenke eller utpresse andre.
Eksperter sier at problemet kan bli verre med utviklingen av generative AI-verktøy som trenes på milliarder av bilder fra internett og genererer nytt innhold ved hjelp av eksisterende data.
«Realiteten er at teknologien vil fortsette å spre seg, den vil fortsette å utvikle seg, og den vil fortsette å bli mer tilgjengelig og tilgjengelig», sa Adam Dodge, grunnlegger av EndTAB, en gruppe som tilbyr opplæring i teknologimisbruk. «Og så lenge det fortsetter, vil folk utvilsomt … fortsette å misbruke teknologien til å skade andre, først og fremst gjennom seksuell vold på nettet, deepfake-pornografi og falske nakenbilder.»
Noelle Martin fra Perth i Australia har opplevd denne virkeligheten. Den 28 år gamle kvinnen oppdaget deepfake-porno av seg selv for 10 år siden da hun, av nysgjerrighet, googlet sitt eget bilde en dag. Den dag i dag sier Martin at hun ikke aner hvem som har laget de falske pornobildene eller -videoene. Hun mistenker at noen har brukt bildene hennes fra sosiale medier til å lage pornovideoer.
Martin prøvde å kontakte nettstedene for å få fjernet videoene, men forsøkene var forgjeves. Noen svarte ikke. Andre fjernet dem, men la dem raskt ut på nytt. «Du kan ikke vinne», sa Martin. «Det vil være på internett for alltid, og det kan ødelegge livet ditt.»
Teknologiselskapenes forsøk på å løse problemet
Noen AI-modeller sier at de har begrenset tilgang til pornografiske bilder.
OpenAI sa at de fjernet pornografisk innhold fra dataene som ble brukt til å trene DALL-E-bildegeneratoren, noe som burde begrense sannsynligheten for at den blir misbrukt. Selskapet filtrerer også forespørsler og sier at de blokkerer brukere fra å lage AI-bilder av kjendiser og fremtredende politikere . En annen modell, Midjourney, blokkerer også bruken av visse nøkkelord og oppfordrer brukere til å flagge problematiske bilder til moderatorer.
I mellomtiden har Stability AI også rullet ut en oppdatering som hindrer brukere i å lage eksplisitte bilder. Disse endringene kommer etter rapporter om at noen brukere brukte teknologien til å lage kjendisinspirerte nakenbilder.
Talsperson for Stability AI, Motez Bishara, sa at filteret bruker en kombinasjon av nøkkelord og andre teknikker som bildegjenkjenning for å oppdage nakenhet. Men brukerne kan finjustere programvaren og lage hva de vil, ettersom selskapet har gitt ut appens åpne kildekode.
Enkelte sosiale medieselskaper har også strammet inn reglene for å bedre beskytte plattformene sine mot skadelig materiale.
Forrige måned sa TikTok at alt deepfake- eller manipulert innhold må merkes for å indikere at det er falskt eller endret på en eller annen måte.
Spillplattformen Twitch oppdaterte også nylig retningslinjene sine for deepfake-bilder etter at en populær streamer ved navn Atrioc ble tatt for å åpne en deepfake-pornoside i nettleseren sin under en direktestrømming i slutten av januar.
Apple og Google sa at de nylig fjernet en app fra appbutikkene sine for å kjøre seksuelt antydende deepfake-videoer for å markedsføre produktene sine.
Fra vestlig sanger til K-pop-idol.
Forskning på deepfake-porno er sjelden, men en rapport fra 2019 fra AI-selskapet DeepTrace Labs fant at den nesten utelukkende var våpenbrukt mot kvinner, med vestlige skuespillerinner som de mest målrettede, etterfulgt av K-pop-sangere.
Metas talsperson Dani Lever sa i en uttalelse at selskapets retningslinjer begrenser både AI- og ikke-AI-generert vokseninnhold, og at de begrenser annonsering for appens side som genererer deepfake på plattformen.
I februar begynte Meta, i tillegg til nettsteder for voksne som Only**** og Porn***, å delta i et nettbasert verktøy kalt Take It Down, som lar tenåringer rapportere seksuelt eksplisitte bilder og videoer av seg selv fra internett. Nettstedet støtter både hemmelig filmede videoer og AI-genererte videoer.
Hoang Ton (ifølge AP)
[annonse_2]
Kilde






Kommentar (0)