Gezichtsauthenticatie wordt in Vietnam veel gebruikt - Foto: QUANG DINH
Gezichten, stemmen en zelfs live videogesprekken ... worden zo overtuigend vervalst dat ze de traditionele veiligheidsmaatregelen omzeilen.
De heer MILKO RADOTIC (vicevoorzitter verantwoordelijk voor de regio Azië- Pacific van iProov)
Generatieve kunstmatige intelligentie (AI) en deepfakes leiden niet alleen tot misinformatie, maar ook tot fraude. Deze tools stellen criminelen in staat om duizenden overtuigende nep-identiteiten op grote schaal te creëren, waardoor ze dezelfde oplichting meerdere keren kunnen plegen.
Dat is de mening van de heer Milko Radotic, Vice President verantwoordelijk voor de regio Azië- Pacific van iProov, een van 's werelds toonaangevende leveranciers van biometrische authenticatietechnologie, in een interview met Tuoi Tre.
* Wat zijn volgens jou de grootste bedreigingen waarmee Vietnamese gebruikers in de nabije toekomst op cyberspace te maken zullen krijgen, gezien de ontwikkeling van AI en de toepassingen ervan?
- Een van de grootste risico's voor Vietnam in de nabije toekomst is synthetische identiteitsfraude. In tegenstelling tot traditionele identiteitsdiefstal, waarbij criminelen informatie van een echt persoon stelen, gebruiken fraudeurs nu stukjes data, zoals naam, adres of ID-nummer, om een volledig nieuwe, niet-bestaande identiteit te creëren.
Deze valse identiteiten kunnen vervolgens worden gebruikt om rekeningen te openen, krediet aan te vragen of geld over te maken naar het buitenland. Wat deze dreiging zo alarmerend maakt, is dat deze ongelooflijk moeilijk te detecteren is. Omdat de identiteit "deels echt" en "deels nep" is, kan deze veel van de controles die banken en platforms gebruiken, omzeilen.
Daarnaast is er de opkomst van geavanceerde deepfake-technologieën. Gezichten, stemmen en zelfs live videogesprekken worden zo overtuigend nagebootst dat ze de traditionele veiligheidsmaatregelen kunnen omzeilen.
De heer Milko Radotic, Vice President van de regio Azië-Pacific van iProov
* Kunnen gebruikers onderscheiden of bepaalde content (foto, video, artikel...) door AI is gegenereerd?
- De realiteit is dat de meeste mensen dat niet kunnen. Ons onderzoek bij iProov wees uit dat 99,9% van de deelnemers deepfakes niet herkende.
Zelfs geavanceerde detectietools hebben het moeilijk. Geautomatiseerde deepfake-detectietools zijn, wanneer ze in de praktijk worden getest, bijna de helft zo nauwkeurig als in laboratoriumomstandigheden.
Een tool kan bijvoorbeeld een door AI gegenereerde afbeelding herkennen, maar een video met een verwisseld gezicht volledig missen. Evenzo kunnen systemen die zijn getraind op prominente publieke figuren goed werken met politici of beroemdheden, maar moeite hebben met gewone mensen zonder een grote digitale voetafdruk.
Er is sprake van een echte wapenwedloop, want zodra de opsporing verbetert, passen oplichters zich meteen aan.
* Hoe kunnen we onze mogelijkheden verbeteren om bedreigingen van kunstmatige AI en deepfakes te identificeren en ons ertegen te verdedigen, meneer?
- Voor Vietnamese gebruikers is de beste verdediging een gezonde dosis scepsis. Als je het gevoel hebt dat er iets niet klopt, zelfs tijdens een videogesprek met je baas, bank of familie, pauzeer dan even en verifieer via een ander vertrouwd kanaal. Vertrouw niet alleen op wat je op het scherm ziet of hoort.
De verantwoordelijkheid voor het implementeren van sterkere bescherming zou niet bij de gebruiker, maar bij de organisatie moeten liggen. Banken en platforms stappen bijvoorbeeld over op biometrische authenticatie met liveness detection om te verifiëren of een persoon echt is, de juiste persoon is en op dat moment fysiek aanwezig is.
Deze maatregelen helpen voorkomen dat deepfake-fraude op grote schaal plaatsvindt.
* Is de toepassing van biometrische authenticatie, die in Vietnam op grote schaal wordt toegepast, ook een effectieve verdedigingsoplossing, meneer?
- We kunnen stellen dat Vietnam behoorlijk ver gevorderd is in de toepassing van biometrische authenticatie, met meer dan 120 miljoen geverifieerde persoonsgegevens en meer dan 1,2 miljoen zakelijke klantrekeningen. Banken registreren ook een aanzienlijke vermindering van fraude. Deze groei is werkelijk indrukwekkend. Er blijven echter uitdagingen bestaan.
Naarmate AI-gestuurde fraude steeds geavanceerder wordt, moet technologie zich voortdurend ontwikkelen om voorop te blijven lopen. Biometrie, met name gezichtsverificatie, heeft een unieke kracht: het combineert sterke beveiliging met een naadloze gebruikerservaring. Deze balans is cruciaal voor het opbouwen van gebruikersvertrouwen en het stimuleren van acceptatie.
* Welke strategieën zijn volgens u nodig om het publieke bewustzijn te vergroten en de toepassing van biometrische authenticatie onder gebruikers uit te breiden?
- In Vietnam groeit het vertrouwen in en de acceptatie van biometrische authenticatie snel. De meeste mensen ontgrendelen hun telefoon al met hun gezicht of vingerafdruk, dus het is logisch dat deze gewoonte zich ook in de banksector zal uitbreiden.
Voeg daar de snelle groei van digitaal bankieren en de sterke steun van de overheid aan toe en we zien dat het gebruikerscomfort sneller groeit dan in veel aangrenzende markten.
De uitdaging is nu echter schaalbaarheid. Biometrische authenticatie moet niet alleen bruikbaar zijn voor technisch onderlegde mensen, maar ook voor oudere generaties, mensen met een lagere digitale geletterdheid en gewone smartphonegebruikers.
Er zijn drie belangrijke strategieën om breder vertrouwen op te bouwen. Ten eerste moeten biometrische systemen werken op alle apparaten en voor alle gebruikers, met inclusieve ontwerpen voor mensen van alle leeftijden en mogelijkheden. Authenticatie moet eenvoudig, snel en intuïtief zijn, zonder enige frictie.
Banken en toezichthouders moeten gebruikers de echte voordelen laten zien, van sneller inloggen tot bewezen fraudereductie, aan de hand van praktijkvoorbeelden.
Het doel is om biometrie niet alleen een extra beveiligingsfunctie te maken, maar ook de meest natuurlijke en vertrouwde manier om online te communiceren. Zodra dat gebeurt, zal de acceptatie ervan op natuurlijke wijze toenemen.
De gevolgen zijn zeer ernstig.
Volgens de Global Association of Forensic Accountants zal het aantal deepfake-incidenten wereldwijd tussen 2023 en 2025 vertienvoudigen, wat neerkomt op een toename van meer dan 900% in twee jaar tijd. De gevolgen zijn ernstig. Deloitte schat dat AI-gestuurde fraude banken en hun klanten tegen 2027 maar liefst $ 40 miljard zal kosten.
In Vietnam groeit en wordt de dreiging van generatieve AI en deepfake-technologie steeds duidelijker. In 2024 registreerde het Department of Information Security (voorheen het Ministerie van Informatie en Communicatie) meer dan 220.000 meldingen van online oplichting en fraude, waarvan de meeste verband hielden met de financiële en bancaire sector. Sterker nog, nu steeds meer consumenten digitale transacties prioriteit geven, is Vietnam een aantrekkelijk doelwit geworden.
Eén enkele oplichting kan verwoestende gevolgen hebben: het spaargeld van een gezin wordt weggevaagd of het vertrouwen in de digitale bancaire infrastructuur wordt ondermijnd. Daarom is vertrouwen essentieel voor financiële inclusie.
Moet geavanceerde biometrische authenticatietechnologie gebruiken
Volgens Milko Radotic kunnen gestolen identiteiten, leeggeroofde rekeningen, ongeautoriseerde toegang tot gevoelige gegevens en grootschalige fraude het publieke vertrouwen in het digitale financiële systeem ondermijnen. Het is immers de basis voor financiële inclusie en digitale groei.
Daarom moeten banken en platforms in Vietnam een stap voor zijn. Eenvoudige wachtwoorden of eenmalige wachtwoorden (OTP's) zijn simpelweg niet meer voldoende. Er is behoefte aan geavanceerde biometrische authenticatietechnologie met realtime detectie van de aanwezigheid van de betrokkene om te verifiëren of een persoon echt is, de juiste persoon is en op dat moment aanwezig is.
"Deze maatregel, gecombineerd met voortdurende beveiligingsupgrades, zorgt ervoor dat we de snel evoluerende bedreigingen een stap voor blijven", aldus Milko Radotic.
Terug naar het onderwerp
DEUGD
Bron: https://tuoitre.vn/deepfake-lan-tran-xac-thuc-sinh-trac-hoc-co-du-chong-lua-dao-bang-ai-20251016231113396.htm
Reactie (0)