Vietnam.vn - Nền tảng quảng bá Việt Nam

Độc lập - Tự do - Hạnh phúc

ChatGPT-gebruikers lopen risico op diefstal van informatie

Báo Kinh tế và Đô thịBáo Kinh tế và Đô thị30/09/2024


De langetermijngeheugenfunctie van ChatGPT is een nieuwe functie die in februari 2024 door OpenAI werd geïntroduceerd en in september werd uitgebreid.

Beveiligingsonderzoeker Johann Rehberger heeft onlangs een ernstig beveiligingslek met betrekking tot deze functie onthuld.

Het is bekend dat deze nieuwe functie chatbots helpt informatie uit eerdere gesprekken op te slaan. Hierdoor hoeven gebruikers niet elke keer dat ze chatten opnieuw informatie in te voeren, zoals leeftijd, interesses of persoonlijke voorkeuren. Dit is echter een zwakke plek geworden voor aanvallers.

ChatGPT-gebruikers lopen risico op diefstal van informatie
ChatGPT-gebruikers lopen risico op diefstal van informatie

Johann Rehberger toonde aan dat hackers een techniek genaamd prompt injection konden gebruiken: het invoegen van kwaadaardige instructies in het geheugen, waardoor de AI gedwongen werd te gehoorzamen. Deze opdrachten zouden worden doorgegeven via onbetrouwbare content zoals e-mails, documenten of websites.

Zodra deze nepherinneringen zijn opgeslagen, zal de AI ze blijven gebruiken als echte informatie in gesprekken met gebruikers. Dit kan leiden tot het verzamelen en misbruiken van de persoonlijke gegevens van gebruikers.

Rehberger gaf een specifiek voorbeeld door een link te versturen met een schadelijke afbeelding die ervoor zorgde dat ChatGPT een vals geheugen opsloeg. Deze informatie zou de toekomstige reacties van ChatGPT beïnvloeden. Alle informatie die de gebruiker invoerde, zou ook naar de server van de hacker worden verzonden.

Om de aanval te activeren, hoeft de hacker ChatGPT-gebruikers er alleen maar van te overtuigen op een link met een schadelijke afbeelding te klikken. Daarna worden alle chats van de gebruiker met ChatGPT doorgestuurd naar de server van de aanvaller, zonder sporen achter te laten.

Rehberger meldde de bug in mei 2024 aan OpenAi, maar het bedrijf beschouwde het slechts als een beveiligingslek. Nadat het bewijs had ontvangen dat gebruikersgegevens gestolen konden worden, bracht het bedrijf een tijdelijke patch uit voor de webversie van ChatGPT.

Hoewel het probleem tijdelijk is opgelost, merkt Rehberger op dat niet-vertrouwde content nog steeds Prompt Injection kan gebruiken om nep-informatie in het langetermijngeheugen van ChatGPT te plaatsen. Dit betekent dat hackers in bepaalde gevallen de kwetsbaarheid nog steeds kunnen misbruiken om schadelijke herinneringen op te slaan en persoonlijke informatie op de lange termijn te stelen.

OpenAI adviseert gebruikers om regelmatig de opgeslagen herinneringen van ChatGPT te controleren op foutpositieve resultaten. Het bedrijf biedt daarnaast gedetailleerde instructies over hoe u herinneringen die in de tool zijn opgeslagen, kunt beheren en verwijderen.



Bron: https://kinhtedothi.vn/nguoi-dung-chatgpt-co-nguy-co-bi-danh-cap-thong-tin.html

Reactie (0)

No data
No data

In hetzelfde onderwerp

In dezelfde categorie

Precair slingeren op de klif, zich vastklampen aan de rotsen om zeewierjam te schrapen op het strand van Gia Lai
48 uur jagen op wolken, rijstvelden bekijken en kippen eten in Y Ty
Het geheim van de topprestaties van de Su-30MK2 in de lucht boven Ba Dinh op 2 september
Tuyen Quang verlicht met gigantische Mid-Herfstlantaarns tijdens de festivalnacht

Van dezelfde auteur

Erfenis

Figuur

Bedrijf

No videos available

Nieuws

Politiek systeem

Lokaal

Product