Wat vindt u van de trend waarbij hackers AI als 'wapen' inzetten om cyberaanvallen en fraude uit te voeren?

Dr. Nguyen Tuan Khang: Volgens de X-Force Threat Intelligence Index van IBM uit 2024 is de regio Azië- Pacific , inclusief Vietnam, de regio die in 2023 de meeste cyberaanvallen ter wereld zal ondervinden. De maakindustrie is de sector die het zwaarst wordt getroffen door cyberaanvallen.

De belangrijkste methode van criminelen is nog steeds phishingaanvallen, waarbij kwetsbare personen worden aangevallen en kwetsbaarheden worden uitgebuit om malware te installeren. Daarnaast is de opkomende trend in 2024 cyberaanvallen met kunstmatige intelligentie (AI).

Uit het rapport van Wired blijkt dat veel slechteriken gebruikmaken van generatieve AI om hacks uit te voeren, frauduleuze chatbots te creëren of deepfake-afbeeldingen en -video's te maken die de gezichten en stemmen van andere mensen nabootsen.

Tegelijkertijd beginnen informatiebeveiligingssystemen ook AI-functies te integreren, zoals WatsonX. Kunstmatige intelligentie kan worden benut, maar kan ook de mens vervangen bij het analyseren, monitoren, identificeren van cijfers en voorspellen van aanvalsscenario's. Dit verbetert de verdedigingscapaciteit en minimaliseert informatiebeveiligingsrisico's.

W-nguyen-tuan-khang-ibm-1.jpg
Cybersecurity-expert Nguyen Tuan Khang. Foto: Sterk Dat

Deepfake-fraude komt steeds vaker voor. Hoe gevaarlijk zullen deze aanvallen in de toekomst zijn, gezien de snelle ontwikkeling van AI?

Dr. Nguyen Tuan Khang: Deepfake is in feite een technologie die hackers helpt valse digitale identiteiten te creëren en zich zo voor te doen als anderen. Deepfake zal een gevaarlijk probleem vormen, omdat deze technologie steeds geavanceerder wordt.

Om deepfake te bestrijden, moet je eerst bepalen of de afbeelding of stem van een persoon door AI is gegenereerd. Er is momenteel geen universele tool die deepfakes direct kan detecteren, omdat aanvallers voortdurend nieuwe modellen ontwikkelen.

Naast deepfake-detectie is er nog een andere techniek om hiermee om te gaan: technologie gebruiken om gedrag te analyseren. Vanuit organisatorisch en zakelijk perspectief is het noodzakelijk om een ​​systeem te ontwikkelen dat beide technieken combineert.

De laatste tijd zijn er cyberaanvallen geweest waarbij hackers heimelijk malware in het bedrijfssysteem hebben geplaatst. De malware ligt op de loer en analyseert alle activiteiten, waardoor een valse identiteit wordt gecreëerd om kwaadaardige bedoelingen uit te voeren. Met de ontwikkeling van deepfake-technologie, gecombineerd met de mogelijkheid om video's te creëren met behulp van AI, zullen dit soort aanvallen in de toekomst veel gevaarlijker zijn.

Hoe kunnen we ouderen, kinderen en andere kwetsbare groepen beschermen tegen oplichters nu het aantal deepfake-cyberaanvallen toeneemt?

Dr. Nguyen Tuan Khang: Ouderen en kinderen worden vaak aangevallen door oplichters die gebruikmaken van een techniek die social engineering wordt genoemd. Deze term beschrijft aanvallen waarbij menselijk gedrag wordt gemanipuleerd.

Hackers kunnen nu AI gebruiken in combinatie met dataverzameling, -mining en -analyse om mensen te identificeren die waarschijnlijk worden opgelicht en vervolgens manieren te vinden om ze aan te vallen. Naast het vergroten van het bewustzijn binnen de community, moeten we ook accepteren dat er situaties zullen voorkomen waarin gebruikers worden opgelicht. We moeten technologie gebruiken om dit te detecteren en te voorkomen.

W-online-fraude-1.jpg
Waarschuwing over gevallen van imitatie van politieagenten om geldtransfers op te lichten door de politie van Thanh Luong ( Hanoi ). Foto: Trong Dat

Onlangs was er een geval waarbij een bankmedewerker vermoedde dat een oude vrouw die geld kwam overmaken, tekenen van oplichting vertoonde. Deze persoon stopte vervolgens onmiddellijk de transactie en meldde dit bij de autoriteiten. De IT-systemen van banken beschikken nu over technologie om menselijke taken te vervangen.

De rol van technologie is dat, zelfs als bekend is dat de afzender de echte persoon is, het systeem de transactie toch zal stoppen als het vermoeden bestaat dat de transactie door iemand anders wordt gemanipuleerd. Zulke tools worden fraudepreventiesystemen genoemd.

Is het tijd dat Vietnam sancties oplegt om AI te beheersen en AI-onderzoek, -ontwikkeling en -gebruik in een kader plaatst?

Dr. Nguyen Tuan Khang: De kwestie van AI-beheer wordt al lang besproken, maar er zijn nog steeds veel controverses. Zo heeft de parkeerplaats bij mij in de buurt een AI-systeem om kentekenplaten te herkennen, maar er vonden nog steeds diefstallen plaats. Toen ontstond de controverse over wiens schuld het was. Moet de appartementseigenaar, de bewaker of de ontwikkelaar van het AI-systeem aansprakelijk worden gesteld?

Sindsdien heeft het gebouw zijn regels aangepast en staat dat bewoners er voor het gemak voor kunnen kiezen om AI te gebruiken om kentekenplaten te herkennen, maar ze moeten de risico's accepteren. Degenen die hiermee instemmen, mogen de automatische deuren gebruiken, degenen die dat niet willen, moeten hun auto op de oude manier parkeren. We moeten dergelijke sancties invoeren.

IBM ontwikkelde ooit een AI-systeem om kanker te helpen voorkomen. Wanneer het systeem medicijnen voorschreef, maar de patiënt deze innam maar nog steeds niet gered kon worden, is dat dan de schuld van de arts of van de AI?

Ik denk dat AI-regelgeving specifiek moet zijn en duidelijk moet aangeven wat wel en niet mag bij de ontwikkeling van AI-toepassingen. Om de wereld veiliger te maken, is de meest basale regelgeving die we kunnen nemen, het verplicht stellen van biometrische herkenning bij grote geldtransacties. In zo'n situatie kunnen mensen die hun identiteitsgegevens kwijtraken, volledig voorkomen dat ze geld verliezen.

Bedankt.

Deepfake-fraude en het imiteren van gezichten en stemmen zal in 2024 toenemen Volgens de voorspelling van VSEC zal het aantal cyberaanvallen met behulp van AI, waaronder deepfake-fraude om gezichten en stemmen te imiteren, in 2024 toenemen.