Die Langzeitgedächtnisfunktion von ChatGPT ist eine neue Funktion, die von OpenAI im Februar 2024 eingeführt und im September erweitert wurde.
Kürzlich hat der Sicherheitsforscher Johann Rehberger eine schwerwiegende Sicherheitslücke im Zusammenhang mit dieser Funktion aufgedeckt.
Es ist bekannt, dass diese neue Funktion Chatbots dabei hilft, Informationen aus früheren Gesprächen zu speichern. Dadurch müssen Benutzer Informationen wie Alter, Interessen oder persönliche Ansichten nicht bei jedem Chat erneut eingeben. Dies ist jedoch zu einer Schwachstelle geworden, die Angreifer ausnutzen können.
Johann Rehberger zeigte, dass Hacker eine Technik namens „Prompt Injection“ nutzen können. Dabei werden schädliche Anweisungen in den Speicher eingefügt, die die KI zum Befolgen zwingen. Diese Befehle werden über nicht vertrauenswürdige Inhalte wie E-Mails, Dokumente oder Websites übermittelt.
Sobald diese gefälschten Erinnerungen gespeichert sind, verwendet die KI sie in Gesprächen mit Benutzern weiterhin als echte Informationen, was zur Erfassung und zum Missbrauch personenbezogener Daten der Benutzer führen könnte.
Rehberger lieferte ein konkretes Beispiel: Er schickte einen Link mit einem bösartigen Bild, das ChatGPT dazu veranlasste, eine falsche Erinnerung zu speichern. Diese Information beeinflusste zukünftige Antworten von ChatGPT. Insbesondere wurden alle vom Benutzer eingegebenen Informationen auch an den Server des Hackers gesendet.
Um den Angriff auszulösen, muss der Hacker ChatGPT-Benutzer lediglich dazu bringen, auf einen Link mit einem schädlichen Bild zu klicken. Anschließend werden alle Chats des Benutzers mit ChatGPT spurlos auf den Server des Angreifers umgeleitet.
Rehberger meldete den Fehler im Mai 2024 an OpenAi, doch das Unternehmen betrachtete ihn lediglich als Sicherheitslücke. Nachdem es Hinweise darauf gab, dass Benutzerdaten gestohlen werden könnten, veröffentlichte das Unternehmen einen temporären Patch für die Webversion von ChatGPT.
Obwohl das Problem vorübergehend behoben wurde, weist Rehberger darauf hin, dass nicht vertrauenswürdige Inhalte weiterhin Prompt-Injection nutzen können, um gefälschte Informationen in den Langzeitspeicher von ChatGPT einzufügen. Das bedeutet, dass Hacker die Schwachstelle in bestimmten Fällen weiterhin ausnutzen könnten, um schädliche Erinnerungen zu speichern und so langfristig persönliche Informationen zu stehlen.
OpenAI empfiehlt Benutzern, die in ChatGPT gespeicherten Erinnerungen regelmäßig auf Fehlalarme zu überprüfen. Außerdem stellt das Unternehmen detaillierte Anweisungen zum Verwalten und Löschen der im Tool gespeicherten Erinnerungen bereit.
[Anzeige_2]
Quelle: https://kinhtedothi.vn/nguoi-dung-chatgpt-co-nguy-co-bi-danh-cap-thong-tin.html
Kommentar (0)