ChatGPTs långtidsminnesfunktion är en ny funktion som introducerades av OpenAI i februari 2024 och utökades i september.
Nyligen avslöjade säkerhetsforskaren Johann Rehberger en allvarlig sårbarhet relaterad till den här funktionen.
Det är känt att den här nya funktionen hjälper chatbotar att lagra information från tidigare konversationer. Tack vare det behöver användare inte ange information som ålder, intressen eller personliga åsikter varje gång de chattar. Detta har dock blivit en svaghet för angripare att utnyttja.
Johann Rehberger har visat att hackare kan använda en teknik som kallas prompt injection – att infoga skadliga instruktioner i minnet och tvinga AI:n att lyda. Dessa kommandon skulle levereras via otillförlitligt innehåll som e-postmeddelanden, dokument eller webbplatser.
När dessa falska minnen har lagrats kommer AI:n att fortsätta använda dem som riktiga meddelanden i samtal med användare, vilket kan leda till insamling och missbruk av användarnas personuppgifter.
Rehberger gav ett konkret exempel genom att skicka en länk som innehöll en skadlig bild som fick ChatGPT att lagra ett falskt minne. Denna information skulle påverka ChatGPT:s framtida svar. I synnerhet skulle all information som användaren angav också skickas till hackarens server.
För att utlösa attacken behöver hackaren därför bara övertyga ChatGPT-användare att klicka på en länk som innehåller en skadlig bild. Därefter kommer alla användarens chattar med ChatGPT att omdirigeras till angriparens server utan att lämna några spår.
Rehberger rapporterade felet till OpenAi i maj 2024, men företaget ansåg det bara vara ett säkerhetsproblem. Efter att ha fått bevis på att användardata kunde vara stulna släppte företaget en tillfällig patch på webbversionen av ChatGPT.
Även om problemet tillfälligt har åtgärdats noterar Rehberger att otillförlitligt innehåll fortfarande kan använda Prompt Injection för att infoga falsk information i ChatGPT:s långtidsminne. Det innebär att hackare i vissa fall fortfarande kan utnyttja sårbarheten för att lagra skadliga minnen för att stjäla personlig information på lång sikt.
OpenAI rekommenderar att användare regelbundet kontrollerar ChatGPT:s lagrade minnen för falska positiva resultat, och företaget tillhandahåller även detaljerade instruktioner om hur man hanterar och tar bort lagrade minnen.
[annons_2]
Källa: https://kinhtedothi.vn/nguoi-dung-chatgpt-co-nguy-co-bi-danh-cap-thong-tin.html
Kommentar (0)