Hoang Oanh (personagenaam gewijzigd) is een kantoormedewerker in Hanoi . Tijdens een chat met een vriend via Facebook Messenger nam Oanh's vriend afscheid en beëindigde het gesprek, maar keerde plotseling terug naar een sms-bericht waarin hij vroeg om geld te lenen en voorstelde om geld over te maken naar een bankrekening.

Hoewel de accountnaam overeenkwam met die van haar vriendin, was Hoang Oanh nog steeds een beetje achterdochtig, dus vroeg ze een videogesprek aan om dit te verifiëren. Haar vriendin stemde meteen toe, maar het gesprek duurde slechts enkele seconden vanwege een "intermitterende netwerkverbinding", zoals ze uitlegde. Nadat ze het gezicht van haar vriendin in het videogesprek had gezien en de stem ook die van deze persoon was, twijfelde Hoang Oanh niet langer en maakte ze het geld over. Pas nadat de overboeking was geslaagd, realiseerde deze gebruiker zich dat ze in de val van de hacker was getrapt.

luadao sudung ai 1.jpg
De proefpersonen voerden videogesprekken met nepbeelden en stemmen, gemaakt door AI, om gebruikers te misleiden en hun bezittingen toe te eigenen. (Foto: Bkav)

Het geval van gebruiker Hoang Oanh is slechts één van de vele slachtoffers die in de val zijn getrapt van fraudebendes die kunstmatige intelligentie (AI) gebruiken om afbeeldingen en stemmen te creëren van vrienden en familieleden van slachtoffers en hen zo te misleiden zodat ze hun eigendommen afpakken.

Deskundigen van Bkav gaven aan dat dit informatiebeveiligingsbedrijf in de tweede helft van 2023 en vooral rond de periode van het Chinese Nieuwjaar 2024 voortdurend meldingen en hulpvragen van slachtoffers ontving over soortgelijke fraudegevallen als hierboven vermeld.

Volgens de analyse van de experts van het bedrijf namen de slechteriken in het geval van gebruiker Hoang Oanh de controle over het Facebookaccount over, maar namen ze het niet meteen helemaal over. In plaats daarvan volgden ze de gebruiker in het geheim en wachtten ze op een kans om zich voor te doen als slachtoffer en geld te lenen van hun vrienden en familieleden.

De oplichters gebruiken AI om een ​​nepvideo te maken van het gezicht en de stem van de Facebook-accounteigenaar (deepfake). Wanneer ze gevraagd worden om een ​​videogesprek te voeren ter verificatie, stemmen ze ermee in om het gesprek te accepteren, maar verbreken vervolgens snel de verbinding om detectie te voorkomen.

De heer Nguyen Tien Dat, algemeen directeur van het Malware Research Center van Bkav, benadrukte dat zelfs wanneer gebruikers een videogesprek voeren en de gezichten van familieleden of vrienden zien en hun stemmen horen, dit niet per se betekent dat ze met die persoon praten. De laatste tijd zijn veel mensen slachtoffer geworden van financiële oplichting met behulp van deepfake en kunstmatige intelligentie.

"De mogelijkheid om gebruikersgegevens te verzamelen en te analyseren via AI maakt het mogelijk om geavanceerde fraudestrategieën te ontwikkelen. Dit betekent ook dat de complexiteit van fraudescenario's bij de combinatie van Deepfake en GPT zal toenemen, waardoor fraudedetectie veel moeilijker wordt", aldus de heer Nguyen Tien Dat.

Bkav-experts adviseren gebruikers extra waakzaam te zijn en geen persoonlijke informatie te verstrekken (identiteitskaart, bankrekeningnummer, OTP-code, enz.). Maak geen geld over naar vreemden via de telefoon, sociale media of websites die tekenen van fraude vertonen. Wanneer er een verzoek is om geld te lenen/over te maken naar een rekening via sociale media, moeten gebruikers andere authenticatiemethoden gebruiken, zoals bellen of andere communicatiekanalen gebruiken om opnieuw te bevestigen.

Deskundigen voorspellen cyberaanvaltrends in 2024 en zijn het erover eens dat de snelle ontwikkeling van AI niet alleen duidelijke voordelen met zich meebrengt, maar ook aanzienlijke risico's voor de cyberbeveiliging met zich meebrengt.

De grootste uitdaging voor bedrijven en organisaties die vandaag de dag te maken hebben met AI-technologie is fraude en geavanceerde persistente bedreigingen (APT). Fraudescenario's worden steeds complexer, vooral wanneer deepfake en GPT worden gecombineerd. De mogelijkheid om gebruikersgegevens te verzamelen en te analyseren via AI maakt het mogelijk om geavanceerde fraudestrategieën te ontwikkelen, waardoor het voor gebruikers moeilijker wordt om fraude te identificeren.

Het vergroten van de AI-beveiliging is een onmiskenbare trend voor de komende tijd. De internationale gemeenschap zal nauw moeten samenwerken om nieuwe beveiligingsmaatregelen te ontwikkelen en tegelijkertijd de kennis en het bewustzijn van gebruikers over de potentiële risico's van AI te vergroten.

Pas op voor oplichters die valse merkboodschappen verspreiden

Pas op voor oplichters die valse merkboodschappen verspreiden

Volgens de afdeling Informatieveiligheid ( Ministerie van Informatie en Communicatie ) is het verspreiden van valse merkberichten een van de 24 vormen van fraude die plaatsvinden in het Vietnamese cyberspace.
Waarschuwing voor 5 online oplichtingspraktijken tijdens het Chinese Nieuwjaar 2024

Waarschuwing voor 5 online oplichtingspraktijken tijdens het Chinese Nieuwjaar 2024

De afdeling Informatieveiligheid (Ministerie van Informatie en Communicatie) heeft zojuist vijf online oplichtingspraktijken aangewezen die oplichters waarschijnlijk tijdens het Chinese Nieuwjaar 2024 zullen gebruiken om informatie en bezittingen van mensen te stelen.
Het zich voordoen als autoriteiten is goed voor 9% van alle phishingaanvallen in Vietnam

Het zich voordoen als autoriteiten is goed voor 9% van alle phishingaanvallen in Vietnam

In een onlangs gepubliceerd rapport wijzen de cybersecurity-experts van Viettel erop dat het aantal aanvallen waarbij personen zich voordoen als Vietnamese autoriteiten vorig jaar is toegenomen. Deze aanvallen zijn goed voor 9% van het totale aantal oplichtings- en imitatieaanvallen.