Hva synes du om trenden med at hackere «bevæpner» AI for å utføre cyberangrep og svindel?

Dr. Nguyen Tuan Khang: Ifølge IBMs X-Force Threat Intelligence Index fra 2024 er Asia- Stillehavsregionen , inkludert Vietnam, den regionen som vil bli rammet av flest cyberangrep i verden i 2023. Av disse er produksjonsindustrien den industrien som er mest rammet av cyberangrep.

Hovedmetoden for skurker er fortsatt phishing-angrep rettet mot sårbare personer og utnyttelse av sårbarheter for å installere skadelig programvare. I tillegg er den fremvoksende trenden i 2024 cyberangrep som involverer kunstig intelligens (KI).

Wireds rapport påpeker at mange skurker bruker generativ AI for å veilede hackere, lage falske chatboter eller lage Deepfake-bilder og -videoer som etterligner andre menneskers ansikter og stemmer.

Men sammen med denne trenden begynner også informasjonssikkerhetssystemer å integrere AI-funksjoner, som for eksempel WatsonX. Kunstig intelligens kan utnyttes, men kan også erstatte mennesker i å analysere, overvåke, identifisere tall og forutsi angrepsscenarier, og dermed forbedre forsvarskapasiteten og minimere informasjonssikkerhetsrisikoer.

W-nguyen-tuan-khang-ibm-1.jpg
Cybersikkerhetsekspert Nguyen Tuan Khang. Foto: Trong Dat

Deepfake-svindel blir mer og mer vanlig. Med den raske utviklingen av AI, hvor farlige vil disse angrepene være i fremtiden?

Dr. Nguyen Tuan Khang: I bunn og grunn er deepfake en teknologi som hjelper hackere med å lage falske digitale identiteter, og dermed utgi seg for å være andre. Deepfake vil bli et farlig problem fordi denne teknologien blir mer og mer sofistikert.

For å bekjempe Deepfakes er det første man må gjøre å avgjøre om en persons bilde eller stemme er generert av kunstig intelligens. Det finnes for øyeblikket ikke noe universelt verktøy som kan oppdage Deepfakes umiddelbart fordi angripere stadig utvikler nye modeller.

I tillegg til Deepfake-deteksjon finnes det en annen teknikk for å håndtere dette, nemlig bruk av teknologi for å analysere atferd. Fra et organisasjons- og forretningsperspektiv er det nødvendig å utvikle et system som kombinerer begge disse teknikkene.

I den senere tid har det vært cyberangrep der hackere i hemmelighet har plantet skadevare i selskapets system. Skadevaren ligger på lur og analyserer all aktivitet, og skaper dermed en falsk identitet for å utføre ondsinnede intensjoner. Med utviklingen av Deepfake-teknologi, kombinert med muligheten til å lage videoer laget av AI, vil denne typen angrep bli mye farligere i fremtiden.

Med opptrappingen av Deepfake-cyberangrep, hvordan kan vi beskytte eldre, barn og andre sårbare grupper mot svindlere?

Dr. Nguyen Tuan Khang: Eldre og barn blir ofte angrepet av svindlere ved hjelp av en teknikk som kalles sosial manipulering. Dette er et begrep som beskriver angrep gjennom manipulering av menneskelig atferd.

Hackere kan nå bruke AI i kombinasjon med datainnsamling, utvinning og analyse for å identifisere personer som sannsynligvis blir svindlet, og deretter finne måter å angripe på. I tillegg til å øke bevisstheten i samfunnet, må vi også akseptere at situasjoner der brukere blir svindlet vil oppstå, og vi må bruke teknologi for å oppdage og forhindre det.

W-online-svindel-1.jpg
Advarsel om tilfeller av politiutgivelse for å svindle pengeoverføringer fra Thanh Luong Ward-politiet ( Hanoi ). Foto: Trong Dat

Nylig var det en sak der en bankansatt mistenkte at en gammel kvinne som kom for å overføre penger viste tegn på å være blitt svindlet. Denne personen stoppet deretter umiddelbart transaksjonen og rapporterte det til myndighetene. Bankenes IT-systemer har nå teknologi som erstatter mennesker i slike oppgaver.

Teknologiens rolle er at selv om avsenderen er kjent for å være den virkelige personen, vil systemet fortsatt stoppe overføringen hvis det mistenkes at transaksjonen manipuleres av noen andre. Slike verktøy kalles svindelforebyggingssystemer.

Er det på tide at Vietnam innfører sanksjoner for å håndtere AI, og setter forskning, utvikling og bruk av AI inn i et rammeverk?

Dr. Nguyen Tuan Khang: Spørsmålet om KI-håndtering har vært diskutert lenge, men det er fortsatt mange kontroverser. For eksempel har parkeringsplassen i mitt område et KI-system for å gjenkjenne bilskilt, men det var fortsatt tyverier. På den tiden begynte kontroversen å oppstå om hvem sin feil det var. Skulle leilighetseieren, sikkerhetsvakten eller utvikleren av KI-systemet være ansvarlig?

Siden den gang har bygningen endret reglene sine, og sier at beboerne kan velge å bruke AI til å gjenkjenne bilskilt for enkelhets skyld, men de må akseptere risikoen. De som samtykker vil kunne bruke de automatiske dørene, de som ikke er det må parkere bilene sine på gamlemåten. Vi må ha slike sanksjoner.

På samme måte utviklet IBM en gang et AI-system for å forebygge kreft. Når systemet foreskrev medisin, men pasienten tok den, men likevel ikke kunne reddes, er det legens feil eller AI-ens feil?

Jeg mener at regulering av kunstig intelligens må være spesifikk og tydelig angi hva som kan og ikke kan gjøres når man utvikler kunstig intelligens-applikasjoner. For å gjøre verden tryggere er den mest grunnleggende reguleringen vi kan gjøre å kreve at store pengeoverføringer gjenkjennes biometrisk. I en slik situasjon kan personer som mister identitetsinformasjonen sin helt unngå å tape penger.

Takk skal du ha.

Deepfake-svindel, forfalskning av ansikter og stemmer vil øke i 2024. Ifølge VSECs prognose vil cyberangrep som bruker AI, inkludert deepfake-svindel for å forfalske ansikter og stemmer, øke i 2024.