Deepfakes är videor och bilder som skapats eller digitalt förändrats med hjälp av artificiell intelligens (AI) eller maskininlärning (ML). Pornografiskt innehåll som skapats med denna teknik började cirkulera på internet för några år sedan när en Reddit-användare delade falska porrklipp med kändisars ansikten.
Foto: GI
Vem som helst kan bli ett offer.
Sedan dess har deepfake-skapare kontinuerligt publicerat liknande videor och bilder riktade mot onlineinfluencers, journalister och andra med offentliga profiler. Tusentals sådana videor finns på ett flertal webbplatser.
I och med att AI-teknik blir alltmer tillgänglig gör detta det möjligt för användare att förvandla vem de vill till "pornografiska filmstjärnor" utan deras samtycke, eller, ännu farligare, använda tekniken för att förtala eller utpressa andra.
Experter säger att problemet kan förvärras med utvecklingen av generaliserade AI-verktyg som tränas på miljarder bilder från internet och genererar nytt innehåll med hjälp av befintlig data.
”Verkligheten är att tekniken kommer att fortsätta att spridas, fortsätta att utvecklas och fortsätta att bli enklare och mer tillgänglig”, säger Adam Dodge, grundare av EndTAB, en grupp som erbjuder utbildning om teknikmissbruk. ”Och så länge det fortsätter kommer människor… att fortsätta att missbruka den tekniken för att skada andra, främst genom sexuellt våld online, djupförfalskning av pornografi och falsk nakenhet.”
Noelle Martin från Perth, Australien, upplevde detta på nära håll. Den 28-åriga kvinnan upptäckte sina egna falska pornografiska bilder för 10 år sedan när hon, av nyfikenhet, använde Google för att söka efter bilder på sig själv. Än idag säger Martin att hon inte vet vem som skapade dessa falska pornografiska bilder eller videor. Hon misstänker att någon använt bilder från hennes sociala medier för att skapa de pornografiska videorna.
Trots Martins försök att kontakta webbplatserna för att få videorna borttagna var hennes ansträngningar förgäves. Vissa svarade inte. Andra tog bort dem men laddade snabbt upp dem igen. "Du kan inte vinna", sa Martin. "Det kommer att finnas kvar på internet för alltid och kan förstöra ditt liv."
Teknikföretagens ansträngningar att rätta till situationen.
Vissa AI-modeller har angett att de har begränsad åtkomst till pornografiska bilder.
OpenAI säger att de har tagit bort pornografiskt innehåll från de data som används för att träna sitt bildgenereringsverktyg DALL-E, vilket kommer att begränsa risken för missbruk. Företaget filtrerar också förfrågningar och säger att de blockerar användare från att skapa AI-bilder av kändisar och framstående politiker . Midjourney, en annan modell, blockerar också användningen av vissa nyckelord och uppmuntrar användare att flagga problematiska bilder för moderatorer.
Samtidigt har Stability AI också släppt en uppdatering för att förhindra att användare skapar känsliga bilder. Dessa ändringar kommer efter rapporter om att vissa användare skapade kändisinspirerade nakenbilder med hjälp av tekniken.
Stability AI-talespersonen Motez Bishara sa att filtret använder en kombination av nyckelord och andra tekniker som bildigenkänning för att upptäcka nakenhet. Men användare kan manipulera programvaran och skapa vad de vill eftersom företaget har släppt öppen källkod för applikationen.
Vissa sociala medieföretag har också skärpt sina regler för att bättre skydda sina plattformar från skadligt material.
Förra månaden sa TikTok att allt deepfake- eller manipulerat innehåll måste märkas för att indikera att det är falskt eller har ändrats på något sätt.
Spelplattformen Twitch uppdaterade nyligen sina policyer för deepfake-bilder efter att en populär streamer vid namn Atrioc upptäcktes besöka en deepfake-porrsajt i sin webbläsare under en livestream i slutet av januari.
Apple och Google meddelade nyligen att de tagit bort en app från sina appbutiker för att den körde sexuellt suggestiva deepfake-videor för att marknadsföra produkter.
Från västerländska sångare till K-pop-idoler.
Forskning om djupförfalskningsporr är sällsynt, men en rapport från 2019 av AI-företaget DeepTrace Labs fann att den nästan uteslutande var vapenbaserad mot kvinnor, med västerländska skådespelerskor som mest måltavlor, följt av K-popsångerskor.
Metas talesperson Dani Lever sa i ett uttalande att företagets policy begränsar både AI- och icke-AI-genererat vuxeninnehåll, och begränsar även annonsering från sidan för deepfake-skapandeappen på sin plattform.
I februari började Meta, tillsammans med vuxensajter som Only**** och Porn***, delta i ett onlineverktyg som heter Take It Down, vilket gör det möjligt för tonåringar att rapportera sina egna pornografiska bilder och videor från internet. Sajten stöder bearbetning av både hemligt filmade videor och AI-genererade videor.
Hoang Ton (enligt AP)
[annons_2]
Källa










Kommentar (0)