Onderzoek van Google DeepMind wijst uit dat het creëren van nep-afbeeldingen, -video's en -audio van mensen bijna twee keer zo vaak voorkomt als het verspreiden van desinformatie met behulp van tools zoals AI-chatbots.
Uit analyse blijkt dat het meest voorkomende doel van actoren die synthetische AI misbruiken, het vormen of beïnvloeden van de publieke opinie is. Dit is goed voor 27% van het gebruik, wat zorgen baart over de mogelijke impact van deepfakes op verkiezingen wereldwijd dit jaar.
Een nepafbeelding van de Britse premier Rishi Sunak verscheen op TikTok en Instagram in de aanloop naar de algemene verkiezingen. Foto: AFP
Deepfakes van de Britse premier Rishi Sunak, en van andere wereldleiders, zijn de afgelopen maanden op TikTok, X en Instagram verschenen. De Britse kiezers gaan volgende week naar de stembus voor de algemene verkiezingen.
Er bestaat de vrees dat, ondanks de inspanningen van socialemediaplatforms om dergelijke content te labelen of te verwijderen, het publiek deze mogelijk niet als nep zal herkennen en dat de verspreiding ervan kiezers kan beïnvloeden.
Ardi Janjeva, onderzoeksmedewerker bij het Alan Turing Institute, noemde de bevindingen van het artikel "bijzonder relevant" en suggereerde dat door AI gegenereerde publieke informatie "ons algemene begrip van de sociaal -politieke realiteit zou kunnen vertekenen".
"Zelfs als we niet zeker weten wat de impact van deepfakes op het stemgedrag is, kan deze vertekening op korte termijn moeilijk te detecteren zijn en vormt ze op lange termijn een risico voor de democratie," voegde Janjeva eraan toe.
"Er zijn veel zorgen over de tamelijk geavanceerde cyberaanvallen die met deze tools mogelijk zijn", aldus onderzoeker Nahema Marchal, hoofdauteur van de studie bij Google DeepMind.
Onderzoekers van Google DeepMind en Jigsaw analyseerden ongeveer 200 gevallen van misbruik van AI tussen januari 2023 en maart 2024. Deze gevallen waren afkomstig van sociale mediaplatformen zoals X en Reddit, maar ook van online blogs en mediaberichten over misbruik.
De op één na meest voorkomende motivatie achter het misbruik is geld verdienen, bijvoorbeeld door naaktfoto's van echte mensen te maken of AI te gebruiken om allerlei soorten content te genereren, zoals nepnieuwsartikelen. In de meeste gevallen worden gemakkelijk toegankelijke tools gebruikt die "minimale technische expertise vereisen", waardoor veel kwaadwillenden AI op creatieve wijze kunnen misbruiken.
Ngoc Anh (volgens FT)
Bron: https://www.congluan.vn/nghien-cuu-deepfake-chinh-tri-dung-dau-trong-danh-list-su-dung-ai-doc-hai-post300851.html






Reactie (0)