Vad tycker du om trenden att hackare "beväpnar" AI för att utföra cyberattacker och bedrägerier?
Dr. Nguyen Tuan Khang: Enligt IBMs X-Force Threat Intelligence Index från 2024 är Asien- Stillahavsområdet , inklusive Vietnam, den region som kommer att drabbas av flest cyberattacker i världen år 2023. Av dessa är tillverkningsindustrin den industri som drabbas hårdast av cyberattacker.
Den främsta metoden för skurkar är fortfarande nätfiskeattacker riktade mot utsatta personer och utnyttjande av sårbarheter för att installera skadlig kod. Dessutom är den framväxande trenden under 2024 cyberattacker som involverar artificiell intelligens (AI).
Wireds rapport påpekar att många skurkar använder generativ AI för att vägleda hackningar, skapa bedrägliga chatbotar eller skapa Deepfake-bilder och -videor som härmar andra människors ansikten och röster.
Men i takt med denna trend börjar även informationssäkerhetssystem integrera AI-funktioner, såsom WatsonX. Artificiell intelligens kan utnyttjas, men kan också ersätta människor i att analysera, övervaka, identifiera siffror och förutsäga attackscenarier, vilket förbättrar försvarskapaciteten och minimerar informationssäkerhetsrisker.
Deepfake-bedrägerier blir allt vanligare. Med den snabba utvecklingen av AI, hur farliga kommer dessa attacker att vara i framtiden?
Dr. Nguyen Tuan Khang: I grund och botten är Deepfake en teknik som hjälper hackare att skapa falska digitala identiteter och därigenom utge sig för att vara andra. Deepfake kommer att bli ett farligt problem eftersom tekniken blir mer och mer sofistikerad.
För att bekämpa Deepfakes är det första man bör göra att avgöra om en persons bild eller röst är AI-genererad. Det finns för närvarande inget universellt verktyg som kan upptäcka Deepfakes omedelbart eftersom angripare ständigt utvecklar nya modeller.
Förutom Deepfake-detektion finns det en annan teknik för att hantera det, nämligen att använda teknik för att analysera beteende. Ur ett organisatoriskt och affärsmässigt perspektiv är det nödvändigt att utveckla ett system som kombinerar båda dessa tekniker.
På senare tid har det förekommit cyberattacker där hackare i hemlighet har planterat skadlig kod i företagens system. Skadlig kod ligger och analyserar all aktivitet, och skapar därmed en falsk identitet för att utföra illvilliga avsikter. Med utvecklingen av Deepfake-teknik, i kombination med möjligheten att skapa videor skapade av AI, kommer den här typen av attacker att bli mycket farligare i framtiden.
Med eskaleringen av deepfake-cyberattacker, hur kan vi skydda äldre, barn och andra utsatta grupper från bedragare?
Dr. Nguyen Tuan Khang: Äldre och barn attackeras ofta av bedragare med hjälp av en teknik som kallas social ingenjörskonst. Det är en term som beskriver attacker genom manipulation av mänskligt beteende.
Hackare kan nu använda AI i kombination med datainsamling, datautvinning och analys för att identifiera personer som sannolikt blir lurade och sedan hitta sätt att attackera. Förutom att öka medvetenheten i samhället måste vi också acceptera att situationer där användare blir lurade kommer att uppstå, och måste använda teknik för att upptäcka och förhindra det.
Nyligen inträffade ett fall där en bankanställd misstänkte att en gammal kvinna som kom för att överföra pengar visade tecken på att ha blivit lurad. Denna person stoppade sedan omedelbart transaktionen och rapporterade det till myndigheterna. Bankernas IT-system har nu teknik som ersätter människor i sådana uppgifter.
Teknikens roll är att även om avsändaren är känd som den verkliga personen, kommer systemet fortfarande att stoppa överföringen om det misstänks att transaktionen manipuleras av någon annan. Sådana verktyg kallas bedrägeriförebyggande system.
Är det dags för Vietnam att införa sanktioner för att hantera AI, och sätta AI-forskning, utveckling och användning i ett ramverk?
Dr. Nguyen Tuan Khang: Frågan om AI-hantering har diskuterats länge, men det finns fortfarande många kontroverser. Till exempel har parkeringen i mitt område ett AI-system för att känna igen registreringsskyltar, men det förekom fortfarande stölder. Vid den tiden började kontroversen uppstå om vems fel det var. Borde lägenhetsägaren, säkerhetsvakten eller AI-systemutvecklaren vara ansvariga?
Sedan dess har byggnaden ändrat sina regler och anger att de boende kan välja att använda AI för att känna igen registreringsskyltar för enkelhetens skull, men de måste acceptera riskerna. De som samtycker kommer att kunna använda de automatiska dörrarna, de som inte gör det kommer att behöva parkera sina bilar på det gamla sättet. Vi behöver sådana sanktioner.
På liknande sätt utvecklade IBM en gång ett AI-system för att förebygga cancer. När systemet ordinerade medicin, men patienten tog den men ändå inte kunde räddas, är det läkarens fel eller AI:ns fel?
Jag anser att AI-reglering måste vara specifik och tydligt ange vad som kan och inte kan göras när man utvecklar AI-applikationer. För att göra världen säkrare är den mest grundläggande regleringen vi kan göra att kräva att stora pengaöverföringar ska kännas igen biometriskt. I en sådan situation kan personer som förlorar sin identitetsinformation helt undvika att förlora pengar.
Tack.
[annons_2]
Källa


![[Foto] Premiärminister Pham Minh Chinh deltar i den femte nationella pressprisutdelningen om att förebygga och bekämpa korruption, slöseri och negativitet.](https://vphoto.vietnam.vn/thumb/1200x675/vietnam/resource/IMAGE/2025/10/31/1761881588160_dsc-8359-jpg.webp)
![[Foto] Den tredje patriotiska tävlankongressen för den centrala inrikeskommissionen](https://vphoto.vietnam.vn/thumb/1200x675/vietnam/resource/IMAGE/2025/10/30/1761831176178_dh-thi-dua-yeu-nuoc-5076-2710-jpg.webp)

![[Foto] Generalsekreterare To Lam deltar i Vietnam-Storbritanniens högnivåkonferens för ekonomi](https://vphoto.vietnam.vn/thumb/1200x675/vietnam/resource/IMAGE/2025/10/30/1761825773922_anh-1-3371-jpg.webp)












































































Kommentar (0)