Vad är din bedömning av trenden att hackare "beväpnar" AI för att utföra cyberattacker och bedrägerier?

Dr. Nguyen Tuan Khang: Enligt IBMs rapport om X-Force Threat Intelligence Index från 2024 var Asien- Stillahavsområdet , inklusive Vietnam, bland de tre regionerna i världen som drabbades mest av cyberattacker år 2023. Tillverkningssektorn var den sektor som drabbades mest av dessa cyberattackincidenter.

Den huvudsakliga taktiken som används av illvilliga aktörer är fortfarande nätfiskeattacker riktade mot sårbara individer och utnyttjande av sårbarheter för att installera skadlig kod. Dessutom är en ny trend som framträder under 2024 cyberattacker som involverar artificiell intelligens (AI).

En rapport från Wired visar att många illvilliga aktörer använder AI-genererat innehåll för att vägleda hackningsförsök, skapa bedrägliga chattrobotar eller producera falska bilder och videor som härmar andra människors ansikten och röster med hjälp av Deepfake-teknik.

Men i takt med denna trend börjar även informationssäkerhetssystem integrera AI-funktioner, såsom WatsonX. Artificiell intelligens kan utnyttjas, men den kan också ersätta människor inom analys, övervakning, digital identifiering och förutsägelse av attackscenarier, vilket förbättrar försvarsförmågan och minimerar informationssäkerhetsriskerna.

W-nguyen-tuan-khang-ibm-1.jpg
Cybersäkerhetsexperten Nguyen Tuan Khang. Foto: Trong Dat

Deepfake-bedrägerier blir allt vanligare. Med den snabba utvecklingen av AI, hur farliga kommer dessa attacker att bli i framtiden?

Dr. Nguyen Tuan Khang: I grund och botten är deepfake en teknik som gör det möjligt för hackare att skapa falska digitala identiteter och därigenom utge sig för att vara andra. Deepfake kommer att bli ett farligt problem eftersom tekniken blir alltmer sofistikerad.

För att bekämpa Deepfake är det första steget att avgöra om någons bild eller röst skapades av AI. För närvarande finns det inget universellt verktyg för att omedelbart upptäcka Deepfake eftersom angripare ständigt utvecklar nya modeller.

Förutom att identifiera Deepfakes är en annan teknik för att bekämpa dem att använda teknik för att analysera beteende. Ur ett organisatoriskt eller affärsmässigt perspektiv är det nödvändigt att utveckla ett system som kombinerar båda dessa tekniker.

På senare tid har det förekommit cyberattacker där hackare i hemlighet odlar skadlig kod i ett företags system. Skadlig kod ligger vilande, analyserar all aktivitet och skapar en falsk identitet för att utföra illvilliga avsikter. Med utvecklingen av Deepfake-teknik, i kombination med AI-drivna videoskapandefunktioner, kommer den här typen av attacker att bli ännu farligare i framtiden.

Med de eskalerande Deepfake-cyberattackerna, hur kan vi skydda äldre, barn och andra utsatta grupper från bedragare?

Dr. Nguyen Tuan Khang: Äldre och barn blir ofta måltavlor för bedragare som använder en teknik som kallas social ingenjörskonst. Denna term beskriver attacker som manipulerar mänskligt beteende.

Hackare kan nu använda AI i samband med datainsamling, utnyttjande och analys för att identifiera individer som är mycket mottagliga för bedrägerier och sedan rikta in sig på dem. Förutom att öka allmänhetens medvetenhet måste vi också acceptera att situationer där användare blir lurade kommer att uppstå, och vi måste använda teknik för att upptäcka och förhindra sådana incidenter.

W-lua-dao-truc-tuyen-1.jpg
Varning för fall där bedragare utger sig för att vara poliser för att lura folk att överföra pengar, utfärdat av Thanh Luong Ward-polisen ( Hanoi ). Foto: Trong Dat

Nyligen inträffade en incident där en bankanställd misstänkte att en äldre kvinna blev lurad när hon gjorde en pengaöverföring. Den anställde ingrep omedelbart och rapporterade händelsen till myndigheterna. Bankers IT-system behöver nu teknik för att ersätta mänsklig intervention i sådana ärenden.

Teknikens roll är att även om avsändaren är känd som den legitima ägaren, kommer systemet fortfarande att vidta åtgärder för att blockera transaktionen om det misstänker manipulation av någon annan. Sådana verktyg kallas bedrägeriförebyggande system.

Är det dags för Vietnam att implementera regler för att hantera AI, och samla AI-forskning, utveckling och användning i ett strukturerat ramverk?

Dr. Nguyen Tuan Khang: Frågan om reglering av AI har diskuterats länge, men det finns fortfarande många kontroversiella punkter. Till exempel har parkeringen i mitt grannskap ett AI-system för registreringsskyltsigenkänning, men stölder förekommer fortfarande. Det var då debatten började om vem som var skyldig. Borde fastighetsägaren, säkerhetsvakten eller AI-systemutvecklaren hållas ansvarig?

Från och med då ändrade byggnaden sina regler och slog fast att de boende kunde välja att använda AI-driven registreringsskyltsigenkänning för enkelhetens skull, men de var tvungna att acceptera riskerna. De som höll med kunde använda de automatiska grindarna, medan de som inte höll med var tvungna att parkera sina bilar på det gamla sättet. Vi behöver ett sådant system.

På liknande sätt utvecklade IBM en gång ett AI-system för att förebygga cancer. När systemet ordinerade medicin, och patienten tog den men ändå inte kunde räddas, var det då läkarens eller den artificiella intelligensens fel?

Jag anser att regler för AI måste vara specifika och tydligt ange vad som är tillåtet och vad som inte är tillåtet när man utvecklar AI-applikationer. För att göra världen säkrare är den mest grundläggande regleringen vi kan implementera att kräva att stora pengaöverföringar verifieras biometriskt. I en sådan situation kan personer vars identiteter har äventyrats helt undvika att förlora pengar.

Tack så mycket, herrn.

Deepfake-bedrägerier, inklusive ansikts- och röstimitation, förväntas öka under 2024. Enligt VSEC:s prognos kommer AI-drivna cyberattacker, inklusive Deepfake-bedrägerier för att imitera ansikten och röster, att öka under 2024.