Atac din fiecare colț
Google a lansat un nou produs de inteligență artificială (IA) numit „Gemini Nano Banana”, care nu este o IA cu limbaj mare (LLM) cu capacitatea de a scrie și raționa, ci o IA specializată în editare foto... Mulți utilizatori sunt entuziasmați de acest instrument, dar aduce și multe efecte dăunătoare.

„Este ca o «regresie» a tehnologiei și a eticii inteligenței artificiale”, a declarat Nguyen Hong Phuc, director științific la Conductify AI. „Gemini Nano Banana are capacitatea de a edita fotografii eficient. Dar eliminarea cenzurii de către Google a tehnologiei Gemini Nano Banana, care slăbește barierele și mecanismele limitative, permite acestei inteligențe artificiale să creeze imagini care arată foarte asemănător cu cele ale vedetelor, imagini sexy, imagini sensibile...”, a spus dl Phuc.
Potrivit domnului Nguyen Hong Phuc, această abilitate face din Gemini Nano Banana un instrument pentru a crea imagini false atât de realiste încât nici măcar experții în inteligență artificială nu le pot distinge, ceea ce duce la noi riscuri de fraudă și riscuri de securitate cibernetică, cum ar fi crearea de fotografii cu politicieni și politicieni celebri pentru a răspândi informații false, ba chiar și fotografiile unor persoane fizice sunt editate de inteligența artificială și defăimate pe rețelele de socializare...
În plus, cu zeci de alte instrumente de editare foto cu inteligență artificială care „face valuri” online, frauda deepfake nu se întrevede. Statisticile organizațiilor de securitate arată că tehnologia deepfake creează campanii de fraudă care vizează persoane valoroase, în special lideri de afaceri. În 2024, au existat 140.000-150.000 de cazuri la nivel global, dintre care 75% au vizat directori generali și lideri seniori... Deepfake ar putea crește pierderile economice globale cu 32%, aproximativ 40 de miliarde USD/an până în 2027.
Recent, compania AI Anthropic a detectat și a prevenit o campanie de atac cibernetic desfășurată de hackeri străini, în care s-a înregistrat pentru prima dată utilizarea inteligenței artificiale pentru coordonarea activităților de atac automate. Mai exact, hackerii au folosit sisteme de inteligență artificială pentru a planifica, direcționa și implementa activități de intruziune - o evoluție „îngrijorătoare”, cu riscul de a extinde amploarea și viteza campaniilor de atac cibernetic...
Dl. Ngo Minh Hieu, directorul Organizației Antifraudă a Asociației Naționale pentru Securitate Cibernetică, a declarat că instrumentul integrat cu inteligență artificială are o viteză de fraudă de aproximativ 20 de ori mai mare decât utilizarea unor persoane reale. Subiecții prezintă scenariul de fraudă inteligenței artificiale pentru analiză, iar sistemul va discuta automat cu victimele. Din datele inițiale, inteligența artificială poate ști ce își dorește victima și poate discuta cu victima în timp real. Cel mai sofisticat truc este atacul „Man-in-the-Middle”, ceea ce înseamnă că atunci când utilizatorul efectuează autentificarea video, cum ar fi întoarcerea feței sau citirea comenzilor, hackerul se va poziționa la mijloc pentru a interfera cu datele transmise. În acest moment, infractorii cibernetici introduc videoclipuri deepfake pregătite, înlocuind fluxul de date real al utilizatorului pentru a ocoli autentificarea... Cu metoda de mai sus, sistemele de securitate ale băncilor și instituțiilor financiare sunt, de asemenea, expuse riscului de a fi înșelate.
O mai bună gestionare a datelor
Pe măsură ce inteligența artificială devine tot mai populară, riscurile la adresa securității și confidențialității cresc și ele semnificativ. Datele stocate și procesate pe servere la distanță vor deveni o țintă atractivă pentru hackeri și organizații cibernetice. Conform datelor de la Asociația Națională pentru Securitate Cibernetică, numai în al doilea trimestru al anului 2025, numărul atacurilor cibernetice care utilizează inteligența artificială a crescut cu 62%, provocând pierderi globale de până la 18 miliarde USD...
Experții spun că protecția datelor este vitală. Cu toate acestea, colectarea și vânzarea de date au loc încă în mod deschis pe multe platforme „de pe piața neagră”, pentru doar 20 de dolari pe lună. Infractorii cibernetici pot utiliza instrumente care funcționează similar modelelor lingvistice, dar sunt personalizate în scopuri criminale. Aceste instrumente sunt capabile să creeze cod rău intenționat și chiar să ocolească software-ul antivirus.
În Vietnam, Decretul nr. 13/2023/ND-CP (în vigoare de la 17 aprilie 2023) reglementează protecția datelor cu caracter personal. În plus, Legea privind protecția datelor cu caracter personal este așteptată să intre în vigoare de la 1 ianuarie 2026, deschizând un mecanism juridic mai puternic pentru a răspunde riscului de scurgere și abuz de date cu caracter personal. Cu toate acestea, potrivit Asociației Naționale pentru Securitate Cibernetică, eficacitatea aplicării legii trebuie încă consolidată pe toți cei trei piloni: creșterea gradului de conștientizare a cetățenilor, creșterea responsabilității întreprinderilor și îmbunătățirea capacității de gestionare a agențiilor de management. Pe lângă măsurile tehnice, fiecare persoană trebuie să își dezvolte capacitatea de a identifica semne neobișnuite și suspecte și de a se proteja proactiv de interacțiunile digitale periculoase...
Firma de securitate Kaspersky a avertizat împotriva utilizării abuzive a inteligenței artificiale (Dark AI) (un termen folosit pentru a descrie implementarea modelelor de limbaj mari (LLM) care operează în afara controalelor de securitate standard, permițând adesea acțiuni precum frauda, manipularea, atacurile cibernetice sau abuzul de date). Organizațiile și persoanele fizice trebuie să se pregătească pentru atacuri cibernetice din ce în ce mai sofisticate și dificil de detectat din cauza creșterii Dark AI în regiunea Asia-Pacific.
Sergey Lozhkin, șeful echipei globale de cercetare și analiză (GReAT) responsabilă pentru regiunea Orientul Mijlociu, Turcia, Africa și Asia-Pacific la Kaspersky, a declarat că una dintre manifestările abuzului de inteligență artificială în prezent este apariția modelelor Black Hat GPT. Acestea sunt modele de inteligență artificială special dezvoltate sau ajustate pentru a servi scopuri neetice și ilegale, cum ar fi crearea de programe malware, redactarea de e-mailuri de phishing fluente și extrem de convingătoare pentru a servi atacuri la scară largă, crearea de voci și videoclipuri deepfake și chiar susținerea operațiunilor de atac simulate...
Experții Kaspersky recomandă ca persoanele fizice și companiile să utilizeze soluții de securitate de ultimă generație pentru a detecta programele malware generate de inteligența artificială și să identifice protecția datelor ca un obiectiv important. Pentru companii, este necesar să se aplice instrumente de monitorizare în timp real pentru a monitoriza exploit-urile bazate pe inteligență artificială; să se consolideze controlul accesului și instruirea personalului pentru a limita fenomenul de inteligență artificială în întuneric, precum și riscul de scurgere de date; să se înființeze un centru de operațiuni de securitate cibernetică pentru a monitoriza amenințările și a răspunde rapid la incidente...
Sursă: https://www.sggp.org.vn/bao-mat-du-lieu-thoi-ai-post824210.html






Comentariu (0)