Deepfakes zijn video's en afbeeldingen die digitaal zijn gemaakt of bewerkt met behulp van kunstmatige intelligentie (AI) of machine learning (ML). Pornografie die met deze technologie is gemaakt, begon een paar jaar geleden voor het eerst op internet te circuleren toen een Reddit-gebruiker nep-pornoclips deelde met de gezichten van beroemdheden.
Foto: GI
Iedereen kan slachtoffer worden.
Sindsdien zijn deepfake-makers soortgelijke video's en afbeeldingen blijven plaatsen, gericht op online influencers, journalisten en anderen met openbare profielen. Duizenden van dergelijke video's zijn te vinden op talloze websites.
Nu AI-technologieën steeds toegankelijker worden, kunnen gebruikers iedereen die ze maar willen omtoveren tot 'pornosterren' zonder hun toestemming. En nog gevaarlijker: ze kunnen de technologie gebruiken om anderen te belasteren of te chanteren.
Volgens deskundigen kan het probleem verergeren door de ontwikkeling van generatieve AI-tools die zijn getraind met miljarden afbeeldingen van internet en nieuwe content genereren op basis van bestaande data.
"De realiteit is dat technologie zich zal blijven verspreiden, zich zal blijven ontwikkelen en steeds gemakkelijker beschikbaar en toegankelijker zal worden", aldus Adam Dodge, oprichter van EndTAB, een groep die trainingen geeft over technologiemisbruik. "En zolang dat zo doorgaat, zullen mensen ongetwijfeld... die technologie blijven misbruiken om anderen schade te berokkenen, voornamelijk via online seksueel geweld, deepfake-pornografie en nepnaaktfoto's."
Noelle Martin uit Perth, Australië, heeft die realiteit ondervonden. De 28-jarige ontdekte tien jaar geleden deepfakeporno van zichzelf toen ze uit nieuwsgierigheid op een dag haar eigen foto op Google zocht. Martin zegt tot op de dag van vandaag geen idee te hebben wie de nepporno-afbeeldingen of -video's heeft gemaakt. Ze vermoedt dat iemand haar socialemediafoto's heeft gebruikt om pornovideo's te maken.
Martin probeerde contact op te nemen met de sites om de video's te verwijderen, maar haar pogingen waren tevergeefs. Sommigen reageerden niet. Anderen haalden ze wel offline, maar plaatsten ze snel weer opnieuw. "Je kunt niet winnen," zei mevrouw Martin. "Het blijft voor altijd op internet staan en het kan je leven ruïneren."
Pogingen van technologiebedrijven om het probleem op te lossen
Sommige AI-modellen zeggen dat ze de toegang tot pornografische afbeeldingen hebben beperkt.
OpenAI zegt dat het pornografische content heeft verwijderd uit de data die gebruikt wordt om de DALL-E-imagegenerator te trainen, wat de kans op misbruik zou moeten verkleinen. Het bedrijf filtert ook verzoeken en zegt dat het gebruikers blokkeert om AI-afbeeldingen van beroemdheden en prominente politici te maken. Een ander model, Midjourney, blokkeert ook het gebruik van bepaalde trefwoorden en moedigt gebruikers aan om problematische afbeeldingen te melden bij moderators.
Ondertussen heeft Stability AI ook een update uitgerold die voorkomt dat gebruikers expliciete afbeeldingen maken. Deze wijzigingen volgen op berichten dat sommige gebruikers de technologie gebruikten om naaktfoto's te maken die waren geïnspireerd op beroemdheden.
Motez Bishara, woordvoerder van Stability AI, zei dat het filter een combinatie van trefwoorden en andere technieken zoals beeldherkenning gebruikt om naaktheid te detecteren. Gebruikers kunnen de software echter naar eigen wens aanpassen en creëren wat ze maar willen, aangezien het bedrijf de open source-code van de app heeft vrijgegeven.
Sommige socialemediabedrijven hebben de regels ook aangescherpt om hun platforms beter te beschermen tegen schadelijk materiaal.
Vorige maand zei TikTok dat alle deepfake- of gemanipuleerde content gemarkeerd moet worden om aan te geven dat het nep is of op een of andere manier is gewijzigd.
Gamingplatform Twitch heeft onlangs ook zijn beleid omtrent deepfake-afbeeldingen aangepast, nadat een populaire streamer genaamd Atrioc eind januari werd betrapt op het openen van een deepfake-pornosite in zijn browser tijdens een livestream.
Apple en Google hebben onlangs een app uit hun app stores verwijderd die seksueel suggestieve deepfake-video's liet zien om hun producten te promoten.
Van westerse zanger tot K-popidool.
Er is nog maar weinig onderzoek gedaan naar deepfake-porno, maar uit een rapport uit 2019 van het AI-bedrijf DeepTrace Labs blijkt dat deepfake-porno vrijwel uitsluitend tegen vrouwen wordt ingezet. Westerse actrices zijn het vaakst het doelwit, gevolgd door K-popzangeressen.
Woordvoerder Dani Lever van Meta zei in een verklaring dat het beleid van het bedrijf zowel door AI als niet-AI gegenereerde inhoud voor volwassenen beperkt. Ook verbiedt het bedrijf dat de app die deepfakes genereert advertenties op zijn platform plaatst.
In februari begonnen Meta, evenals sites voor volwassenen zoals Only**** en Porn***, deel te nemen aan een online tool genaamd Take It Down, waarmee tieners seksueel expliciete afbeeldingen en video's van zichzelf van internet kunnen melden. De site ondersteunt zowel stiekem gefilmde video's als door AI gegenereerde video's.
Hoang Ton (volgens AP)
Bron






Reactie (0)