Potențialul vine la pachet cu riscuri
Este incontestabil faptul că inteligența artificială (IA) se dovedește din ce în ce mai mult a fi un instrument puternic pentru a sprijini lucrătorii și a facilita viața umană. Cu toate acestea, aceste produse tehnologice sunt ca o „sabie cu două tăișuri” atunci când sunt exploatate de infractori pentru a comite fraude și atacuri în spațiul cibernetic.
În buletinele de avertizare emise de Departamentul pentru Securitatea Informațiilor ( Ministerul Informațiilor și Comunicațiilor ) sau de Asociația pentru Securitate Cibernetică, au fost citate numeroase cazuri înregistrate de fraudă cu ajutorul tehnologiei AI. De exemplu, dna Nguyen Thanh T - o funcționară din Hanoi, în timp ce discuta cu o prietenă prin Facebook Messenger, aceasta și-a luat rămas bun și a încheiat conversația, dar a revenit brusc la mesaje text, cerându-i să împrumute bani și solicitând transferul de bani într-un cont bancar. Deși numele contului se potrivea cu numele prietenei sale, dna T a fost suspicioasă, așa că a solicitat un apel video pentru verificare. Prietena a fost de acord imediat, dar apelul a durat doar câteva secunde din cauza „rețelei intermitente”.
Văzând fața prietenei sale în apelul video , iar vocea era și ea corectă, dna T a transferat banii. Totuși, abia după ce transferul a avut succes, și-a dat seama că a căzut în capcana hackerului.
Nu doar dna T, ci și multe alte victime, prieteni și rude, au fost înșelate în același mod. Suma de bani pe care răufăcătorii au înșelat-o dându-se drept exemplu instrumente și voci Deep Fake a ajuns la zeci de milioane de dongi.
Un alt exemplu tipic de utilizare a inteligenței artificiale pentru însușirea de active este cazul domnului NTH, în care, atunci când folosea un telefon Android, escrocii au înființat o capcană cu instrucțiuni de a instala un link malware. De acolo, au preluat controlul telefonului și al conturilor bancare pentru a transfera bani către o terță parte. În plus, malware-ul a contactat automat informațiile de contact disponibile și a trimis mesaje automate prin care solicitau transferuri de bani.
Dl. NTH a declarat că impostorul s-a pretins a fi „ofițer de poliție ”, i-a sunat la numărul de telefon și i-a cerut să i se verifice informațiile de identificare personală. Deoarece era în vârstă, nefamiliarizat cu tehnologia și credul, victima i-a dat telefonul unei terțe persoane pentru a o ruga să urmeze instrucțiunile escrocului, descărcând și instalând astfel aplicația rău intenționată „DichVuCong.apk” pe telefonul său.
Dl. Tran Nguyen Chung, șeful Departamentului de Securitate a Sistemelor Informatice (Departamentul de Securitate a Informațiilor), a declarat: „Pe măsură ce tehnologia IA va fi dezvoltată, detectarea și distingerea între conținutul real și cel fals în spațiul cibernetic va deveni mai dificilă, iar oricine poate deveni o țintă, o victimă a atacurilor cibernetice ale infractorilor care utilizează tehnologia IA. Cu toate acestea, faptul de a deveni sau nu victimă depinde de dotarea fiecărei persoane cu cunoștințele și informațiile necesare.”
Această situație de fraudă legată de tehnologia IA nu apare doar în Vietnam, ci și în multe țări din întreaga lume. În prezent, agențiile, organizațiile și marile corporații de tehnologie lucrează împreună pentru a găsi măsuri și soluții tehnice pentru a o detecta și preveni de la bază.
În perioada actuală, măsura importantă este de a promova propaganda, de a crește gradul de conștientizare a oamenilor cu privire la metodele, trucurile și modalitățile de a recunoaște și combate această formă sofisticată de falsificare pentru a ajuta la reducerea și limitarea impactului deepfake-urilor asupra activităților din spațiul cibernetic. De a emite proactiv avertismente pe scară largă în mass-media atunci când există noi evoluții și forme de fraudă.
„În cazul primirii de apeluri prin șantaj cu imagini sau videoclipuri sensibile, oamenii trebuie să rămână calmi, să verifice și să cerceteze cu atenție originea imaginilor și videoclipurilor”, a declarat dl Tran Nguyen Trung.
Conform raportului de cercetare „Identificarea riscurilor pentru economia globală în 2024” realizat de Universitatea de Economie (UEB) din cadrul Universității Naționale din Vietnam, Hanoi, unul dintre riscurile care afectează economia globală este cel din sectorul tehnologic. Raportul afirmă că, în contextul creșterii rapide a inteligenței artificiale (IA), politicile manageriale nu au reușit să țină pasul cu dezvoltarea acesteia. Dezinformarea furnizată de IA, mai ales într-un an cu multe alegeri în lume, cum este acesta, a ridicat numeroase probleme de securitate, politică, apărare și pace la nivel global.
Într-o declarație adresată reporterilor ziarului Tin Tuc, ministrul adjunct al Științei și Tehnologiei, Nguyen Hoang Giang, a declarat: „Prim-ministrul a emis Decizia nr. 127/2021 privind strategia națională de cercetare, dezvoltare și aplicare a inteligenței artificiale până în 2030. Pentru implementare, Ministerul Științei și Tehnologiei, precum și alte ministere și ramuri au implementat-o drastic și sincron, cum ar fi Ministerul Justiției care cercetează aspectul juridic. Ministerul Informației și Comunicațiilor care cercetează tehnologia digitală. Ministerul Științei și Tehnologiei a sprijinit, cercetat și dezvoltat, de asemenea, Industria 4.0; a cercetat și aplicat dezvoltarea tehnologiei informației, servind dezvoltării orașelor digitale și inteligente. Cu toate acestea, odată cu dezvoltarea rapidă și puternică, aspectele negative și riscurile IA au apărut și atunci când aceasta este utilizată abuziv pentru a deveni un instrument al infractorilor cibernetici în scopul fraudei, uzurpării identității, amenințărilor, însușirii de proprietăți etc..”
Până în prezent, pe lângă cercetare, Ministerul Științei și Tehnologiei și Guvernul construiesc activ un cadru legal, învățând din experiențele altor țări dezvoltate, astfel încât domeniul inteligenței artificiale din Vietnam să își promoveze potențialul, să promoveze dezvoltarea, precum și să controleze strict, să asigure etica și umanitatea în domeniul inteligenței artificiale.
Dezvoltarea rapidă a instrumentelor de inteligență artificială a ridicat numeroase probleme legate de drepturile omului, etică, confidențialitate, securitatea informațiilor și responsabilitatea legală. Comparativ cu restul lumii, Vietnamul se află încă în stadii incipiente ale dezvoltării inteligenței artificiale. Prin urmare, este nevoie de reglementări și politici specifice în domeniul inteligenței artificiale, care să fie potrivite pentru toate aspectele vieții, economiei și societății din Vietnam.
Emiteți urgent un cadru juridic
Gestionarea laturii întunecate a inteligenței artificiale este, de asemenea, un subiect discutat în mai multe țări. Parlamentul European a aprobat primul set de reguli de bază din lume pentru reglementarea inteligenței artificiale. Mulți experți în tehnologie consideră că acest set de reguli va ajuta UE să atingă ambele obiective: minimizarea impactului negativ al dezvoltării tehnologice asupra utilizatorilor, precum și recuperarea poziției dominante a principalilor concurenți de pe piață.
La scurt timp după aceea, Adunarea Generală a Națiunilor Unite a adoptat o rezoluție privind inteligența artificială (IA), oferind sprijin global eforturilor internaționale de a se asigura că această nouă tehnologie aduce beneficii tuturor țărilor, respectă drepturile omului și este „sigură, protejată și demnă de încredere”.
Dl. Vu Ngoc Son, director tehnic al Companiei Naționale pe Acțiuni pentru Tehnologia Securității Cibernetice, a declarat: „IA este o tehnologie care servește intereselor umane, sprijinind automatizarea multor etape diferite de operare. Este un instrument puternic, utilizat în multe scopuri diferite, cum ar fi furnizarea de servicii de întrebări și răspunsuri, producția de software etc. Cu toate acestea, IA are și o latură negativă atunci când cade în mâinile unor actori rău intenționați, cu scopul de a crea conținut fraudulos și coduri rău intenționate pentru a ataca utilizatorii. Prin urmare, IA nu este un instrument special pentru crearea de produse sau infracțiuni, ci problema importantă este „cum să utilizezi” IA.”
„Cred că sancțiunile și coridoarele legale nu au atins cu adevărat viteza dezvoltării IA. Vom avea nevoie de timp pentru a elabora și introduce politici care să limiteze riscurile IA atunci când este utilizată în scopuri rele, afectând drepturile omului, precum și securitatea, ordinea și siguranța socială”, a declarat dl. Vu Ngoc Son.
Dr. Dang Minh Tuan, directorul Institutului CMC ATI, a declarat: „Pe de o parte, trebuie să continuăm să cercetăm și să dezvoltăm noi tehnologii, să actualizăm și să studiem metodele de utilizare a inteligenței artificiale în scopuri rele. Pe de altă parte, trebuie să promovăm și onestitatea în știință și în muncă. În consecință, trebuie să existe ajustări și investiții în conținut și politici specifice pentru acest instrument în Vietnam. În special, putem folosi instrumentele de inteligență artificială și pentru a detecta conținut și cod rău intenționat. Inteligența artificială este ca o «sabie cu două tăișuri», creând un proces continuu de impact, îmbunătățindu-se continuu, cu scopul final de a servi interesele umane”.
Experții spun că cerința este de a controla în mod responsabil dezvoltarea produselor de înaltă tehnologie, deoarece incapacitatea de a reglementa și stăpâni tehnologia va duce la consecințe imprevizibile, provocând pierderi economiei și afectând atât fiecare individ, cât și întreaga societate.
Emiterea de reglementări specifice și transparente nu numai că va ajuta la prevenirea și minimizarea riscurilor pe care le poate cauza IA, dar va ajuta și Vietnamul să atragă atenția și investițiile celor mai importante companii de tehnologie din lume, promovând dezvoltarea industriei interne a tehnologiei informației și a IA.
Articol final: Dezvoltarea și controlul paralel al IA
Sursă: https://doanhnghiepvn.vn/cong-nghe/ai-dang-dinh-hinh-tuong-lai-bai-2-nhung-thach-thuc-di-kem/20240614100957238
Comentariu (0)