Deepfakes zijn video's en afbeeldingen die zijn gemaakt of digitaal bewerkt met behulp van kunstmatige intelligentie (AI) of machine learning (ML). Pornografisch materiaal dat met deze technologie is gemaakt, begon een paar jaar geleden op internet te circuleren toen een Reddit-gebruiker nep-pornofilmpjes deelde met de gezichten van beroemdheden.
Foto: GI
Iedereen kan slachtoffer worden.
Sindsdien hebben makers van deepfakes voortdurend soortgelijke video's en afbeeldingen geplaatst die gericht zijn op online influencers, journalisten en anderen met een publiek profiel. Duizenden van dergelijke video's zijn te vinden op talloze websites.
Doordat AI-technologieën steeds toegankelijker worden, kunnen gebruikers iedereen die ze willen zonder hun toestemming in een "pornografische filmster" veranderen, of, nog gevaarlijker, deze technologie gebruiken om anderen te belasteren of te chanteren.
Deskundigen zeggen dat het probleem zou kunnen verergeren door de ontwikkeling van gegeneraliseerde AI-tools die getraind zijn op miljarden afbeeldingen van internet en die nieuwe content genereren met behulp van bestaande data.
"De realiteit is dat technologie zich zal blijven verspreiden, blijven evolueren en steeds gemakkelijker en toegankelijker zal worden", aldus Adam Dodge, oprichter van EndTAB, een organisatie die trainingen over technologiemisbruik verzorgt. "En zolang dat doorgaat, zullen mensen die technologie blijven misbruiken om anderen schade toe te brengen, voornamelijk via online seksueel geweld, deepfake-pornografie en nepnaaktheid."
Noelle Martin uit Perth, Australië, heeft dit aan den lijve ondervonden. De 28-jarige ontdekte tien jaar geleden haar eigen deepfake-pornografische afbeeldingen toen ze, uit nieuwsgierigheid, via Google naar foto's van zichzelf zocht. Tot op de dag van vandaag weet Martin naar eigen zeggen niet wie deze nep-pornografische afbeeldingen of video's heeft gemaakt. Ze vermoedt dat iemand afbeeldingen van haar sociale media heeft gebruikt om de pornografische video's te creëren.
Ondanks Martins pogingen om contact op te nemen met de websites om de video's te laten verwijderen, bleven haar inspanningen tevergeefs. Sommige reageerden niet. Anderen verwijderden de video's wel, maar plaatsten ze snel weer online. "Je kunt het nooit goed doen," zei Martin. "Het blijft voor altijd op internet staan en kan je leven verpesten."
De inspanningen van technologiebedrijven om de situatie te verbeteren.
Sommige AI-modellen hebben aangegeven dat ze de toegang tot pornografische afbeeldingen hebben beperkt.
OpenAI zegt dat het pornografische inhoud heeft verwijderd uit de data die gebruikt wordt om de DALL-E-tool voor beeldgeneratie te trainen, waardoor de kans op misbruik wordt beperkt. Het bedrijf filtert ook verzoeken en zegt dat het gebruikers blokkeert om AI-afbeeldingen van beroemdheden en prominente politici te maken. Midjourney, een ander model, blokkeert eveneens het gebruik van bepaalde trefwoorden en moedigt gebruikers aan om problematische afbeeldingen te melden bij moderators.
Ondertussen heeft Stability AI ook een update uitgebracht om te voorkomen dat gebruikers gevoelige afbeeldingen maken. Deze wijzigingen volgen op meldingen dat sommige gebruikers met behulp van de technologie naaktfoto's maakten die geïnspireerd waren op beroemdheden.
Motez Bishara, woordvoerder van Stability AI, zei dat het filter een combinatie van trefwoorden en andere technieken, zoals beeldherkenning, gebruikt om naaktheid te detecteren. Gebruikers kunnen de software echter naar eigen inzicht aanpassen , omdat het bedrijf de open-source code van de applicatie heeft vrijgegeven.
Sommige socialemediabedrijven hebben hun regels ook aangescherpt om hun platforms beter te beschermen tegen schadelijk materiaal.
Vorige maand zei TikTok dat alle deepfake- of gemanipuleerde content gelabeld moet worden om aan te geven dat het nep is of op een of andere manier is aangepast.
Het gamingplatform Twitch heeft onlangs zijn beleid met betrekking tot deepfake-afbeeldingen aangepast, nadat was gebleken dat de populaire streamer Atrioc eind januari tijdens een livestream een deepfake-pornografiesite in zijn browser bezocht.
Apple en Google hebben onlangs aangekondigd dat ze een app uit hun appwinkels hebben verwijderd omdat deze seksueel getinte deepfake-video's gebruikte om producten te promoten.
Van westerse zangers tot K-popidolen.
Onderzoek naar deepfake-pornografie is zeldzaam, maar een rapport uit 2019 van AI-bedrijf DeepTrace Labs toonde aan dat het bijna volledig tegen vrouwen werd ingezet, waarbij westerse actrices het meest doelwit waren, gevolgd door K-popzangeressen.
Meta-woordvoerder Dani Lever verklaarde in een persbericht dat het beleid van het bedrijf zowel door AI als door niet-AI gegenereerde content voor volwassenen beperkt, en dat het de pagina van de deepfake-creatie-app ook verbiedt om advertenties op het platform te plaatsen.
In februari begon Meta, samen met websites voor volwassenen zoals Only**** en Porn***, deel te nemen aan een online tool genaamd Take It Down. Deze tool stelt tieners in staat om hun eigen pornografische afbeeldingen en video's van internet te rapporteren. De site ondersteunt zowel stiekem gefilmde video's als door AI gegenereerde video's.
Hoang Ton (volgens AP)
Bron










Reactie (0)