Die Langzeitgedächtnisfunktion von ChatGPT ist eine neue Funktion, die von OpenAI im Februar 2024 eingeführt und im September erweitert wurde.
Kürzlich hat der Sicherheitsforscher Johann Rehberger eine schwerwiegende Sicherheitslücke in Bezug auf diese Funktion aufgedeckt.
Es ist bekannt, dass diese neue Funktion Chatbots dabei hilft, Informationen aus früheren Konversationen zu speichern. Dadurch müssen Nutzer Informationen wie Alter, Interessen oder persönliche Ansichten nicht bei jedem Chat erneut eingeben. Dies hat sich jedoch als Schwachstelle für Angreifer erwiesen.

Johann Rehberger hat gezeigt, dass Hacker eine Technik namens Prompt Injection anwenden können – dabei werden schädliche Anweisungen in den Speicher eingeschleust, um die KI zur Ausführung zu zwingen. Diese Befehle würden über nicht vertrauenswürdige Inhalte wie E-Mails, Dokumente oder Websites übermittelt.
Sobald diese gefälschten Erinnerungen gespeichert sind, wird die KI sie weiterhin als echte Nachrichten in Gesprächen mit den Nutzern verwenden, was zur Sammlung und zum Missbrauch persönlicher Daten der Nutzer führen könnte.
Rehberger lieferte ein konkretes Beispiel, indem er einen Link mit einem schädlichen Bild verschickte, das ChatGPT veranlasste, eine falsche Erinnerung zu speichern. Diese Information würde die zukünftigen Antworten von ChatGPT beeinflussen. Insbesondere würden alle vom Benutzer eingegebenen Daten ebenfalls an den Server des Hackers gesendet.
Um den Angriff auszulösen, muss der Hacker lediglich ChatGPT-Nutzer dazu bringen, auf einen Link mit einem schädlichen Bild zu klicken. Anschließend werden sämtliche Chats des Nutzers mit ChatGPT spurlos auf den Server des Angreifers umgeleitet.
Rehberger meldete den Fehler im Mai 2024 an OpenAI, das Unternehmen betrachtete ihn jedoch lediglich als Sicherheitslücke. Nachdem Hinweise darauf vorlagen, dass Nutzerdaten gestohlen werden könnten, veröffentlichte das Unternehmen einen temporären Patch für die Webversion von ChatGPT.
Das Problem wurde zwar vorübergehend behoben, doch Rehberger weist darauf hin, dass nicht vertrauenswürdige Inhalte weiterhin Prompt-Injection nutzen können, um gefälschte Informationen in den Langzeitspeicher von ChatGPT einzuschleusen. Dies bedeutet, dass Hacker in bestimmten Fällen die Sicherheitslücke weiterhin ausnutzen können, um schädliche Daten zu speichern und so langfristig persönliche Informationen zu stehlen.
OpenAI empfiehlt den Benutzern, die gespeicherten Erinnerungen von ChatGPT regelmäßig auf Fehlalarme zu überprüfen, und stellt außerdem detaillierte Anweisungen zur Verwaltung und Löschung gespeicherter Erinnerungen bereit.
Quelle: https://kinhtedothi.vn/nguoi-dung-chatgpt-co-nguy-co-bi-danh-cap-thong-tin.html






Kommentar (0)