Funcția de memorie pe termen lung a ChatGPT este o nouă funcționalitate introdusă de OpenAI în februarie 2024 și extinsă în septembrie.
Recent, cercetătorul în domeniul securității datelor Johann Rehberger a dezvăluit o vulnerabilitate gravă legată de această funcționalitate.
Se pare că această nouă funcție permite chatbot-urilor să stocheze informații din conversațiile anterioare. Acest lucru elimină necesitatea ca utilizatorii să reintroducă informații precum vârsta, interesele sau opiniile personale de fiecare dată când discută. Cu toate acestea, tocmai această funcție a devenit o vulnerabilitate pe care atacatorii o pot exploata.

Johann Rehberger a subliniat că hackerii pot folosi tehnici de injectare promptă – implantarea de instrucțiuni malițioase în memoria inteligenței artificiale, forțând-o să urmeze ordinele. Aceste comenzi ar fi transmise prin conținut nesigur, cum ar fi e-mailuri, documente sau site-uri web.
Odată ce aceste amintiri false sunt stocate, inteligența artificială va continua să le folosească ca informații reale în conversațiile cu utilizatorul. Acest lucru poate duce la colectarea și utilizarea neautorizată a datelor personale ale utilizatorilor.
Rehberger a oferit un exemplu concret prin trimiterea unui link care conținea o imagine rău intenționată, ceea ce a determinat ChatGPT să stocheze o memorie falsă. Aceste informații ar afecta răspunsurile ulterioare ale ChatGPT. Important este că toate informațiile introduse de utilizatori ar fi trimise și către serverul hackerului.
Prin urmare, pentru a activa atacul, hackerul trebuie doar să convingă utilizatorii ChatGPT să dea clic pe un link care conține imagini malițioase. Apoi, toate conversațiile utilizatorului cu ChatGPT vor fi redirecționate către serverul atacatorului fără a lăsa nicio urmă.
În mai 2024, după ce a descoperit vulnerabilitatea, Rehberger a raportat-o către OpenAi, dar compania a respins-o ca fiind o eroare de securitate. După ce a primit dovezi că datele utilizatorilor ar fi putut fi furate, compania a lansat un patch temporar pentru versiunea web a ChatGPT.
Deși problema a fost rezolvată temporar, Rehberger a subliniat că un conținut nesigur poate folosi în continuare injecția promptă pentru a introduce informații false în memoria pe termen lung a ChatGPT. Aceasta înseamnă că, în anumite cazuri, hackerii pot exploata în continuare vulnerabilitatea pentru a stoca amintiri rău intenționate în scopul furtului permanent de informații personale.
OpenAI recomandă utilizatorilor să verifice periodic datele stocate de ChatGPT pentru a detecta orice informații eronate. Compania oferă, de asemenea, instrucțiuni detaliate despre cum să gestionezi și să ștergi datele stocate în cadrul instrumentului.
Sursă: https://kinhtedothi.vn/nguoi-dung-chatgpt-co-nguy-co-bi-danh-cap-thong-tin.html






Comentariu (0)