
Australië ontwikkelt AI-technologie om deepfake-audio met bijna absolute nauwkeurigheid te detecteren - Illustratiefoto: REUTERS
Wetenschappers van de Commonwealth Scientific and Industrial Research Organisation (CSIRO), Federation University Australia en RMIT University hebben met succes een methode ontwikkeld om audiodeepfakes met uitzonderlijke nauwkeurigheid en aanpasbaarheid te detecteren.
De nieuwe techniek, genaamd Rehearsal with Auxiliary-Informed Sampling (RAIS), is specifiek ontworpen om deepfake-audio te detecteren, een groeiende bedreiging binnen de cybercriminaliteit. Volgens CSIRO brengt dit risico's met zich mee, zoals het omzeilen van stembiometrische authenticatiesystemen, imitatie en het verspreiden van misinformatie.
RAIS-technieken bepalen niet alleen de authenticiteit van een audiotrack, maar zorgen er ook voor dat de hoge prestaties behouden blijven, zelfs nu spoofing-aanvallen zich blijven ontwikkelen en veranderen.
Dr. Kristen Moore, medeauteur van het onderzoek bij Data61, de data- en digitale eenheid van CSIRO, vertelde dat het doel van het team is om een detectiesysteem te ontwikkelen dat nieuwe deepfake-samples kan updaten zonder dat het model helemaal opnieuw hoeft te worden getraind. Hiermee wordt voorkomen dat het model oude gegevens vergeet bij het verfijnen.
RAIS lost dit probleem op door automatisch een kleine, diverse set van eerdere deepfakes te selecteren en op te slaan, inclusief verborgen audiokenmerken. Zo kan de AI nieuwe soorten deepfakes leren en tegelijkertijd de kennis van oude deepfakes behouden, legt Moore uit.
RAIS werkt op basis van een intelligent selectieproces dat voor elk audiofragment "hulplabels" genereert. Door deze hulplabels te combineren in plaats van ze simpelweg als "echt" of "nep" te labelen, ontstaat een rijke en diverse trainingsdataset. Dit mechanisme verbetert het vermogen van het systeem om zich te herinneren en zich in de loop van de tijd aan te passen aanzienlijk.
Volgens CSIRO presteerde RAIS tijdens tests beter dan andere methoden met een gemiddeld foutpercentage van 1,95% over vijf opeenvolgende tests. De broncode voor deze techniek is beschikbaar gesteld op GitHub, een website gespecialiseerd in online broncodeopslag op basis van het Git-platform.
Bron: https://tuoitre.vn/uc-phat-trien-cong-cu-vach-tran-giong-noi-gia-bang-deepfake-20251112092232468.htm






Reactie (0)