Hva er din vurdering av trenden med at hackere «bevæpner» AI til å utføre cyberangrep og svindel?
Dr. Nguyen Tuan Khang: Ifølge IBMs rapport om X-Force Threat Intelligence Index fra 2024 var Asia- Stillehavsregionen , inkludert Vietnam, blant de tre regionene i verden med flest cyberangrep i 2023. Produksjonssektoren var den sektoren som ble hardest rammet av disse cyberangrepshendelsene.
Hovedtaktikken som brukes av ondsinnede aktører er fortsatt phishing-angrep rettet mot sårbare individer og utnyttelse av sårbarheter for å installere skadelig programvare. I tillegg er en ny trend som dukker opp i 2024 cyberangrep som involverer kunstig intelligens (KI).
En rapport fra Wired indikerer at mange ondsinnede aktører bruker AI-generert innhold for å veilede hackingforsøk, lage falske chatboter eller produsere falske bilder og videoer som etterligner andre menneskers ansikter og stemmer ved hjelp av Deepfake-teknologi.
Men sammen med denne trenden begynner også informasjonssikkerhetssystemer å integrere AI-funksjoner, som WatsonX. Kunstig intelligens kan utnyttes, men den kan også erstatte mennesker innen analyse, overvåking, digital identifisering og forutsigelse av angrepsscenarier, og dermed forbedre defensive evner og minimere risikoer for informasjonssikkerhet.
Deepfake-svindel blir stadig mer vanlig. Med den raske utviklingen av AI, hvor farlige vil disse angrepene bli i fremtiden?
Dr. Nguyen Tuan Khang: I bunn og grunn er deepfake en teknologi som lar hackere lage falske digitale identiteter, og dermed utgi seg for å være andre. Deepfake vil bli et farlig problem fordi denne teknologien blir stadig mer sofistikert.
For å bekjempe Deepfake er det første steget å avgjøre om noens bilde eller stemme ble skapt av AI. For øyeblikket finnes det ikke noe universelt verktøy for å oppdage Deepfake umiddelbart fordi angripere stadig utvikler nye modeller.
I tillegg til å identifisere Deepfakes, er en annen teknikk for å bekjempe dem å bruke teknologi for å analysere atferd. Fra et organisasjons- eller forretningsperspektiv er det nødvendig å utvikle et system som kombinerer begge disse teknikkene.
I den senere tid har det vært cyberangrep der hackere i hemmelighet dyrker skadevare i et selskaps system. Skadevaren ligger i dvale, analyserer all aktivitet og skaper en falsk identitet for å utføre ondsinnede intensjoner. Med utviklingen av Deepfake-teknologi, kombinert med AI-drevne videoproduksjonsmuligheter, vil denne typen angrep bli enda farligere i fremtiden.
Med de eskalerende Deepfake-cyberangrepene, hvordan kan vi beskytte eldre, barn og andre sårbare grupper mot svindlere?
Dr. Nguyen Tuan Khang: Eldre og barn blir ofte mål for svindlere som bruker en teknikk som kalles sosial manipulering. Dette begrepet beskriver angrep som manipulerer menneskelig atferd.
Hackere kan nå bruke AI i forbindelse med datainnsamling, utnyttelse og analyse for å identifisere individer som er svært utsatt for svindel, og deretter angripe dem. I tillegg til å øke offentlig bevissthet, må vi også akseptere at situasjoner der brukere blir svindlet vil oppstå, og vi må bruke teknologi for å oppdage og forhindre slike hendelser.
Nylig var det en hendelse der en bankansatt mistenkte at en eldre kvinne ble svindlet mens hun foretok en pengeoverføring. Den ansatte grep raskt inn og rapporterte hendelsen til myndighetene. Bankenes IT-systemer trenger nå teknologi for å erstatte menneskelig inngripen i slike saker.
Teknologiens rolle er at selv om avsenderen er kjent som den legitime eieren, vil systemet fortsatt iverksette tiltak for å blokkere transaksjonen hvis det mistenker manipulasjon fra noen andre. Slike verktøy kalles svindelforebyggingssystemer.
Er det på tide at Vietnam implementerer forskrifter for å håndtere AI, og samler forskning, utvikling og bruk av AI i et strukturert rammeverk?
Dr. Nguyen Tuan Khang: Spørsmålet om regulering av AI har vært diskutert lenge, men det er fortsatt mange kontroversielle punkter. For eksempel har parkeringsplassen i nabolaget mitt et AI-system for registrering av bilskilt, men tyverier skjer fortsatt. Det var da debatten om hvem som hadde skylden startet. Burde bygningseieren, sikkerhetsvakten eller utvikleren av AI-systemet holdes ansvarlig?
Fra da av endret bygningen regelverket sitt, og sa at beboerne kunne velge å bruke AI-drevet registreringsskilt for enkelhets skyld, men de måtte akseptere risikoen. De som var enige, kunne bruke de automatiske portene, mens de som var uenige, måtte parkere bilene sine på gamlemåten. Vi trenger et slikt system.
På samme måte utviklet IBM en gang et AI-system for å forebygge kreft. Når systemet foreskrev medisiner, og pasienten tok dem, men fortsatt ikke kunne reddes, var det da legens eller den kunstige intelligensens feil?
Jeg mener at regelverket for AI må være spesifikt og tydelig angi hva som er tillatt og hva som ikke er tillatt når man utvikler AI-applikasjoner. For å gjøre verden tryggere er det mest grunnleggende regelverket vi kan implementere å kreve at store pengeoverføringer verifiseres biometrisk. I en slik situasjon kan personer med kompromitterte identiteter helt unngå å tape penger.
Takk, herre.
[annonse_2]
Kilde






Kommentar (0)