
Această vulnerabilitate permite atacatorilor să injecteze comenzi malițioase în memoria proprie a inteligenței artificiale, transformând o funcție utilă într-o armă persistentă pentru a rula cod arbitrar (Fotografie ilustrativă: ST).
Conform unui raport de la LayerX Security, acest atac exploatează o vulnerabilitate de tip cross-site request forgery (CSRF) pentru a injecta comenzi malițioase în memoria persistentă a ChatGPT.
Funcția „Memorie”, care a fost concepută pentru ca inteligența artificială să rețină detalii utile precum numele și preferințele utilizatorilor pentru a personaliza răspunsurile, poate fi acum „defectă”.
Odată ce memoria este infectată, aceste comenzi vor persista permanent – cu excepția cazului în care utilizatorul accesează manual setările pentru a le șterge – și pot fi declanșate pe mai multe dispozitive și sesiuni.
„Ceea ce face ca această vulnerabilitate să fie deosebit de periculoasă este faptul că vizează memoria persistentă a inteligenței artificiale, nu doar sesiunea browserului”, a declarat Michelle Levy, directoarea departamentului de cercetare în domeniul securității la LayerX Security.
„În termeni simpli, un atacator folosește un truc pentru a «păcăli» inteligența artificială să scrie o comandă malițioasă în memoria sa”, explică Levy. „Cea mai periculoasă parte este că această comandă rămâne în inteligența artificială pentru totdeauna – chiar dacă utilizatorul schimbă computerul, se deconectează și se reconecta sau chiar folosește un browser diferit.”
Mai târziu, când un utilizator face o solicitare complet normală, acesta poate declanșa accidental codul malițios. Drept urmare, hackerii pot rula cod în fundal, pot fura date sau pot obține un control sporit asupra sistemului.
Scenariul de atac descris este destul de simplu: Mai întâi, un utilizator se conectează la ChatGPT Atlas. Acesta este păcălit să dea clic pe un link malițios, după care site-ul malițios declanșează în secret o solicitare CSRF, injectând în mod silențios instrucțiuni malițioase în memoria ChatGPT a victimei.
În cele din urmă, atunci când un utilizator face o interogare complet legitimă, de exemplu, solicitând inteligenței artificiale să scrie cod, „amintirile” alterate sunt declanșate.
Problema este exacerbată de lipsa unor controale anti-phishing puternice în ChatGPT Atlas, subliniază LayerX.
În testele cu peste 100 de exploit-uri și site-uri de phishing, Atlas a blocat doar 5,8% dintre site-urile rău intenționate.
Acest număr este prea modest în comparație cu Google Chrome (47%) sau Microsoft Edge (53%), ceea ce face ca utilizatorii Atlas să fie „cu până la 90% mai vulnerabili” la atacuri decât browserele tradiționale.
Această descoperire vine în urma unei alte vulnerabilități de tip „rapid malware injecting” demonstrată anterior de NeuralTrust, sugerând că browserele bazate pe inteligență artificială devin un nou front de atac.
Browserul web ChatGPT Atlas a fost lansat de OpenAI la începutul săptămânii trecute. Nu este surprinzător faptul că OpenAI a integrat instrumentul de inteligență artificială ChatGPT în acest browser, ajutând utilizatorii să navigheze mai bine pe web.
Ori de câte ori un utilizator dă clic pe un rezultat al căutării în ChatGPT Atlas, apare o casetă de dialog ChatGPT chiar lângă fereastra paginii web, permițându-i să pună întrebări legate de conținutul pe care îl vizualizează, economisind timp la citit.
ChatGPT poate, de asemenea, să rezume conținutul paginilor web, să editeze textul atunci când compuneți un e-mail sau să sugereze rescrierea acestuia pentru a se potrivi mai bine contextului.
Sursă: https://dantri.com.vn/cong-nghe/nguoi-dung-chatgpt-atlas-co-the-bi-danh-cap-du-lieu-voi-ma-doc-vinh-vien-20251028111706750.htm






Comentariu (0)