De langetermijngeheugenfunctie van ChatGPT is een nieuwe functie die OpenAI in februari 2024 introduceerde en in september verder uitbreidde.
Onlangs onthulde beveiligingsonderzoeker Johann Rehberger een ernstige kwetsbaarheid met betrekking tot deze functie.
Naar verluidt stelt deze nieuwe functie chatbots in staat om informatie uit eerdere gesprekken op te slaan. Hierdoor hoeven gebruikers niet telkens opnieuw informatie zoals leeftijd, interesses of persoonlijke meningen in te voeren wanneer ze chatten. Deze functie is echter tegelijkertijd een kwetsbaarheid geworden die door aanvallers kan worden misbruikt.

Johann Rehberger wees erop dat hackers gebruik kunnen maken van promptinjectietechnieken – het implanteren van kwaadaardige instructies in het geheugen van AI, waardoor het systeem gedwongen wordt bevelen op te volgen. Deze commando's zouden worden verspreid via onbetrouwbare content zoals e-mails, documenten of websites.
Zodra deze valse herinneringen zijn opgeslagen, zal de AI ze blijven gebruiken als echte informatie in gesprekken met de gebruiker. Dit kan leiden tot het ongeoorloofd verzamelen en gebruiken van persoonlijke gegevens van gebruikers.
Rehberger gaf een specifiek voorbeeld door een link te versturen met een kwaadaardige afbeelding die ervoor zorgde dat ChatGPT een onjuist geheugen opsloeg. Deze informatie zou de daaropvolgende reacties van ChatGPT beïnvloeden. Belangrijk is dat alle gebruikersinvoer ook naar de server van de hacker zou worden gestuurd.
Om de aanval uit te voeren, hoeft de hacker ChatGPT-gebruikers er alleen maar toe te bewegen op een link met schadelijke afbeeldingen te klikken. Vervolgens worden alle gesprekken van de gebruiker met ChatGPT omgeleid naar de server van de aanvaller, zonder dat er een spoor achterblijft.
In mei 2024, nadat Rehberger de kwetsbaarheid had ontdekt, meldde hij deze aan OpenAi, maar het bedrijf deed het af als een beveiligingslek. Nadat het bedrijf bewijs had ontvangen dat gebruikersgegevens mogelijk waren gestolen, bracht het een tijdelijke patch uit voor de webversie van ChatGPT.
Hoewel het probleem tijdelijk is opgelost, benadrukte Rehberger dat onbetrouwbare content nog steeds via promptinjectie valse informatie in het langetermijngeheugen van ChatGPT kan invoegen. Dit betekent dat hackers in bepaalde gevallen de kwetsbaarheid nog steeds kunnen misbruiken om kwaadaardige gegevens op te slaan met als doel persoonlijke informatie permanent te stelen.
OpenAI adviseert gebruikers om regelmatig de opgeslagen gegevens van ChatGPT te controleren op onjuistheden. Het bedrijf biedt ook gedetailleerde instructies over hoe opgeslagen gegevens binnen de tool beheerd en verwijderd kunnen worden.
Bron: https://kinhtedothi.vn/nguoi-dung-chatgpt-co-nguy-co-bi-danh-cap-thong-tin.html






Reactie (0)