Ce părere ai despre tendința hackerilor de a „transforma” inteligența artificială în arme pentru a comite atacuri cibernetice și fraude?

Dr. Nguyen Tuan Khang: Conform indicelui IBM X-Force Threat Intelligence din 2024, Asia- Pacific , inclusiv Vietnamul, este regiunea care va suferi cele mai multe atacuri cibernetice din lume în 2023. Dintre acestea, industria prelucrătoare este industria cea mai afectată de atacurile cibernetice.

Principala metodă a infractorilor infractori rămâne atacurile de tip phishing care vizează persoanele vulnerabile și exploatează vulnerabilitățile pentru a instala programe malware. În plus, tendința emergentă în 2024 o reprezintă atacurile cibernetice care implică inteligența artificială (IA).

Raportul Wired subliniază că mulți infractori folosesc inteligența artificială generativă pentru a ghida atacurile cibernetice, a crea chatbot-uri frauduloase sau a crea imagini și videoclipuri Deepfake care imită fețele și vocile altor persoane.

Totuși, odată cu această tendință, sistemele de securitate a informațiilor încep și ele să integreze funcții de inteligență artificială, cum ar fi WatsonX. Inteligența artificială poate fi exploatată, dar poate înlocui și oamenii în analiza, monitorizarea, identificarea numerelor, prezicerea scenariilor de atac, îmbunătățind astfel capacitățile de apărare și minimizând riscurile de securitate a informațiilor.

W-nguyen-tuan-khang-ibm-1.jpg
Expertul în securitate cibernetică Nguyen Tuan Khang. Foto: Trong Dat

Escrocheriile de tip deepfake devin din ce în ce mai frecvente. Odată cu dezvoltarea rapidă a inteligenței artificiale, cât de periculoase vor fi aceste atacuri în viitor?

Dr. Nguyen Tuan Khang: Practic, Deepfake este o tehnologie care îi ajută pe hackeri să creeze identități digitale false, dându-se astfel drept persoane. Deepfake va fi o problemă periculoasă, deoarece această tehnologie devine din ce în ce mai sofisticată.

Pentru a combate Deepfake-urile, primul lucru de făcut este să se determine dacă imaginea sau vocea unei persoane sunt generate de inteligența artificială. În prezent, nu există un instrument universal care să poată detecta imediat Deepfake-urile, deoarece atacatorii dezvoltă constant modele noi.

Pe lângă detectarea Deepfake-urilor, există o altă tehnică de gestionare a acesteia, și anume utilizarea tehnologiei pentru a analiza comportamentul. Dintr-o perspectivă organizațională și de afaceri, este necesar să se dezvolte un sistem care să combine ambele tehnici.

În ultima vreme, au avut loc atacuri cibernetice în care hackerii au instalat în secret programe malware în sistemul companiei. Programul malware pândește și analizează toate activitățile, creând astfel o identitate falsă pentru a pune în aplicare intenții rău intenționate. Odată cu dezvoltarea tehnologiei Deepfake, combinată cu capacitatea de a crea videoclipuri create de inteligența artificială, aceste tipuri de atacuri vor fi mult mai periculoase în viitor.

Având în vedere escaladarea atacurilor cibernetice Deepfake, cum putem proteja persoanele în vârstă, copiii și alte grupuri vulnerabile de escroci?

Dr. Nguyen Tuan Khang: Persoanele în vârstă și copiii sunt adesea atacate de escroci folosind o tehnică numită inginerie socială. Acesta este un termen care descrie atacurile prin manipularea comportamentului uman.

Hackerii pot folosi acum inteligența artificială în combinație cu colectarea, extragerea și analiza datelor pentru a identifica persoanele care sunt susceptibile de a fi înșelate și apoi pentru a găsi modalități de a ataca. Pe lângă creșterea gradului de conștientizare în comunitate, trebuie să acceptăm și că vor apărea situații în care utilizatorii sunt înșelați și trebuie să folosim tehnologia pentru a le detecta și preveni.

W-online-fraud-1.jpg
Avertisment privind cazurile de uzurpare a identității ofițerilor de poliție pentru a escroca transferurile de bani de către Poliția din Sectorul Thanh Luong ( Hanoi ). Foto: Trong Dat

Recent, a existat un caz în care un angajat al unei bănci a suspectat că o femeie în vârstă care venise să transfere bani avea semne că a fost înșelată. Această persoană a oprit imediat tranzacția și a raportat-o ​​autorităților. Sistemele IT ale băncilor au acum tehnologie pentru a înlocui oamenii în astfel de sarcini.

Rolul tehnologiei este acela că, chiar dacă expeditorul este cunoscut ca fiind persoana reală, sistemul va opri transferul dacă se suspectează că tranzacția este manipulată de altcineva. Astfel de instrumente se numesc sisteme de prevenire a fraudei.

Este timpul ca Vietnamul să impună sancțiuni pentru a gestiona inteligența artificială și să includă cercetarea, dezvoltarea și utilizarea inteligenței artificiale într-un cadru?

Dr. Nguyen Tuan Khang: Problema managementului inteligenței artificiale a fost discutată de mult timp, însă există încă multe controverse. De exemplu, parcarea din zona mea are un sistem de inteligență artificială pentru recunoașterea plăcuțelor de înmatriculare, dar furturile au continuat să se producă. La momentul respectiv, au început controversele legate de a cui vină a fost. Ar trebui să fie responsabil proprietarul apartamentului, agentul de pază sau dezvoltatorul sistemului de inteligență artificială?

De atunci, clădirea și-a schimbat regulile, stabilind că rezidenții pot opta să utilizeze inteligența artificială pentru a recunoaște plăcuțele de înmatriculare pentru comoditate, dar trebuie să își asume riscurile. Cei care sunt de acord vor putea folosi ușile automate, cei care nu vor trebui să își parcheze mașinile în mod tradițional. Avem nevoie de astfel de sancțiuni.

În mod similar, IBM a dezvoltat odată un sistem de inteligență artificială pentru a ajuta la prevenirea cancerului. Când sistemul prescrie medicamente, dar pacientul le ia, dar tot nu poate fi salvat, este vina medicului sau a inteligenței artificiale?

Cred că reglementarea IA trebuie să fie specifică, precizând clar ce se poate și ce nu se poate face atunci când se dezvoltă aplicații IA. Pentru a face lumea mai sigură, cea mai elementară reglementare pe care o putem face este să impunem recunoașterea biometrică a transferurilor mari de bani. Într-o astfel de situație, persoanele care își pierd informațiile de identitate pot evita complet pierderea banilor.

Mulțumesc.

Escrocheriile Deepfake, falsificarea feței și a vocii vor crește în 2024. Conform previziunilor VSEC, atacurile cibernetice care utilizează inteligența artificială, inclusiv escrocheriile Deepfake pentru falsificarea fețelor și a vocilor, vor crește în 2024.