Cu ritmul său rapid de dezvoltare, inteligența artificială (IA) creează o „revoluție” în multe domenii - de la asistență medicală, educație , afaceri... până la viața de zi cu zi. Cu toate acestea, aspectele negative ale acestei tehnologii prezintă provocări semnificative pentru gestionarea și controlul informațiilor în spațiul cibernetic.
Inundați de știri false generate de inteligența artificială
Știrile false generate de inteligența artificială sunt răspândite pe platformele de socializare în principal pentru a atrage vizualizări, aprecieri, a crește interacțiunile pentru a vinde online sau a profita de pe urma platformei.
Persoanele care creează știri false „urmăresc” adesea subiecte de actualitate de interes public. De exemplu, după un accident rutier grav pe 17 septembrie, pe piața Tan Long, comuna Lao Bao, provincia Quang Tri , soldat cu 12 răniți și morți, o serie de imagini sfâșietoare au apărut pe rețelele de socializare, provocând lacrimi în rândul multor telespectatori. Stabilind că aceste imagini au fost create de inteligența artificială, poliția din comuna Lao Bao a emis un avertisment cu privire la actul de răspândire a imaginilor false care provoacă neînțelegeri. Acest act nu numai că provoacă răspândirea de informații false, dar afectează și ancheta.
În mod similar, profitând de atenția publică în jurul răsturnării ambarcațiunii turistice Blue Bay 58 din Golful Ha Long, provincia Quang Ninh, pe 19 iulie, care a ucis zeci de oameni, multe conturi de socializare au postat imagini emoționante și povești despre victime. Cu toate acestea, multe dintre aceste conținuturi erau false, create cu ajutorul inteligenței artificiale pentru a „lovi” emoțiile și a atrage interacțiunile utilizatorilor de socializare. În special, imaginile false răspândite, cu conținut exagerat de empatie, ar putea provoca traume emoționale suplimentare familiilor victimelor.
Tehnologia inteligenței artificiale (IA) se îmbunătățește zilnic, ceea ce face ca un videoclip cu conținut atractiv, fidel intenției utilizatorului, să fie creat în doar câteva minute, cu comenzi simple. În special, platformele de inteligență artificială de nouă generație, cum ar fi KlingAI, Veo 3, Sora..., sunt foarte populare printre utilizatorii globali, inclusiv în Vietnam.
În plus, tehnologia deepfake - o combinație de deep learning și fake - a provocat, de asemenea, o mare îngrijorare la nivel global, deoarece poate fi utilizată pentru a crea imagini, sunete sau videoclipuri realiste care sunt foarte greu de detectat ca fiind false. Drept urmare, o serie de escrocherii legate de această tehnologie au avut loc atât în Vietnam, cât și în întreaga lume.
Generalul-locotenent Nguyen Minh Chinh, vicepreședinte permanent al Asociației Naționale pentru Securitate Cibernetică, a remarcat că există o tendință de utilizare abuzivă a inteligenței artificiale (IA) în scopuri ilegale. În special, IA ca serviciu (servicii care furnizează instrumente și aplicații IA - PV) este exploatată de infractorii cibernetici pentru a crea cod malițios, voci false, fețe, mesaje text... pentru a comite fraude, a ataca rețele, a se infiltra în sistemele de date, chiar a provoca instabilitate în materie de securitate și a distruge reputația organizațiilor, afacerilor și liderilor.
Potrivit domnului Tran Ngoc Anh, director tehnic al Cyber Peace Company Limited (CyPeace), unul dintre riscurile pentru utilizatorii de inteligență artificială este acela că aceștia pot primi informații false create chiar de acest instrument. În plus, există o serie de alte probleme, cum ar fi divulgarea de informații confidențiale, date cu caracter personal...
Imagini false sunt răspândite pe internet pentru a „provoca lacrimi” de la spectatori, atrăgând astfel aprecieri și crescând interacțiunile (Captură de ecran)
Creșterea responsabilității utilizatorului
Înainte de a exista măsuri tehnologice și legale pentru a controla strict dezvoltarea și utilizarea inteligenței artificiale, utilizatorii trebuie să utilizeze proactiv și responsabil această tehnologie.
Expertul în securitate cibernetică Vu Ngoc Son, șeful Departamentului de Tehnologie al Asociației Naționale de Securitate Cibernetică, a subliniat că oamenii sunt subiecții care exploatează și utilizează IA, astfel încât aspectele bune și rele ale IA sunt strâns legate de oameni. Dacă utilizatorii sunt calificați și o aplică în scopuri bune, tehnologia îi va promova punctele forte benefice. Dimpotrivă, dacă utilizatorii IA nu înțeleg sau o profită în scopuri ilegale, aceasta poate avea consecințe grave. „Pentru a utiliza și exploata eficient IA, este necesar să ne concentrăm pe construirea de echipe și procese. IA își promovează valoarea doar atunci când este pusă în mâinile celor care știu cum să o stăpânească”, a declarat expertul în securitate cibernetică.
Având în vedere pericolul reprezentat de deepfake-ul - principalul instrument pentru frauda tehnologică în prezent, în procesul de elaborare a Legii privind investițiile și afacerile, Ministerul Finanțelor a subliniat, de asemenea: Activitatea tehnologică de tip deepfake trebuie reglementată ca o linie de afaceri condiționată pentru a preveni abuzul tehnologic care provoacă perturbări ale informațiilor, fraude... Potrivit Ministerului Finanțelor, în prezent, activitatea tehnologică deepfake este unul dintre domeniile noi, care prezintă riscuri complexe pentru securitate și ordine, dar nu este reglementată ca o linie de afaceri condiționată.
Potrivit avocatului Tran Anh Tuan (Asociația Baroului Hanoi), dacă IA este utilizată pentru a crea conținut fără permisiune, în special prin crearea de informații false, contrafăcute sau frauduloase, aceasta poate încălca prevederile Codului Civil. În consecință, contravenienții vor fi supuși unor sancțiuni administrative sau despăgubirilor pentru daune. În caz de consecințe grave, se poate atrage răspunderea penală. „Utilizatorii trebuie să fie atenți atunci când abordează și utilizează IA, să evite absolut să profite de IA pentru a atrage vizualizări și aprecieri; să își sporească responsabilitatea personală, să respecte legea atunci când utilizează IA, precum și atunci când participă la mediul online” - a recomandat avocatul Tuan.
Generalul-locotenent Nguyen Minh Chinh a subliniat că factorul esențial în dezvoltarea durabilă a inteligenței artificiale îl reprezintă resursele umane. De la cercetători, ingineri, experți în securitate cibernetică până la manageri și utilizatori, toți trebuie să fie pe deplin echipați cu cunoștințe, abilități, etică și conștientizare juridică. Potrivit domnului Chinh, aceasta nu este doar echipa care construiește și operează sisteme de inteligență artificială, ci și forța cheie în prevenirea, detectarea și combaterea infracțiunilor de înaltă tehnologie în spațiul cibernetic.
Vietnamul va avea o lege privind inteligența artificială
La o recentă conferință științifică națională despre inteligența artificială, ministrul științei și tehnologiei, Nguyen Manh Hung, a declarat că inteligența artificială deschide mari oportunități, dar ridică și multe probleme legate de etică, ocuparea forței de muncă și încrederea socială. Prin urmare, inteligența artificială trebuie dezvoltată rapid, în siguranță și într-un mod uman.
Potrivit ministrului Nguyen Manh Hung, IA nu înlocuiește oamenii, ci îi servește, este un asistent pentru oameni. IA este un instrument puternic, dar oamenii sunt factorii de decizie, așa că permiteți IA să sprijine, nu să înlocuiască gândirea, valorile și responsabilitățile umane. „Ministerul Științei și Tehnologiei va emite un Cod Etic Național al IA, în armonie cu standardele internaționale, dar conceput pentru a se potrivi practicilor vietnameze și, în același timp, va dezvolta o Lege și o strategie privind IA”, a informat ministrul Nguyen Manh Hung.
Sursă: https://nld.com.vn/ngan-cong-nghe-vuot-ranh-gioi-dao-duc-196250923205638915.htm






Comentariu (0)