Vietnam.vn - Nền tảng quảng bá Việt Nam

ChatGPT-Benutzer sind dem Risiko eines Informationsdiebstahls ausgesetzt

Báo Kinh tế và Đô thịBáo Kinh tế và Đô thị30/09/2024

[Anzeige_1]

Die Langzeitgedächtnisfunktion von ChatGPT ist eine neue Funktion, die von OpenAI im Februar 2024 eingeführt und im September erweitert wurde.

Kürzlich hat der Sicherheitsforscher Johann Rehberger eine schwerwiegende Sicherheitslücke im Zusammenhang mit dieser Funktion aufgedeckt.

Es ist bekannt, dass diese neue Funktion Chatbots dabei hilft, Informationen aus früheren Gesprächen zu speichern. Dadurch müssen Benutzer Informationen wie Alter, Interessen oder persönliche Ansichten nicht bei jedem Chat erneut eingeben. Dies ist jedoch zu einer Schwachstelle geworden, die Angreifer ausnutzen können.

ChatGPT-Benutzer sind dem Risiko eines Informationsdiebstahls ausgesetzt
ChatGPT-Benutzer sind dem Risiko eines Informationsdiebstahls ausgesetzt

Johann Rehberger zeigte, dass Hacker eine Technik namens „Prompt Injection“ nutzen können. Dabei werden schädliche Anweisungen in den Speicher eingefügt, die die KI zum Befolgen zwingen. Diese Befehle werden über nicht vertrauenswürdige Inhalte wie E-Mails, Dokumente oder Websites übermittelt.

Sobald diese gefälschten Erinnerungen gespeichert sind, verwendet die KI sie in Gesprächen mit Benutzern weiterhin als echte Informationen, was zur Erfassung und zum Missbrauch personenbezogener Daten der Benutzer führen könnte.

Rehberger lieferte ein konkretes Beispiel: Er schickte einen Link mit einem bösartigen Bild, das ChatGPT dazu veranlasste, eine falsche Erinnerung zu speichern. Diese Information beeinflusste zukünftige Antworten von ChatGPT. Insbesondere wurden alle vom Benutzer eingegebenen Informationen auch an den Server des Hackers gesendet.

Um den Angriff auszulösen, muss der Hacker ChatGPT-Benutzer lediglich dazu bringen, auf einen Link mit einem schädlichen Bild zu klicken. Anschließend werden alle Chats des Benutzers mit ChatGPT spurlos auf den Server des Angreifers umgeleitet.

Rehberger meldete den Fehler im Mai 2024 an OpenAi, doch das Unternehmen betrachtete ihn lediglich als Sicherheitslücke. Nachdem es Hinweise darauf gab, dass Benutzerdaten gestohlen werden könnten, veröffentlichte das Unternehmen einen temporären Patch für die Webversion von ChatGPT.

Obwohl das Problem vorübergehend behoben wurde, weist Rehberger darauf hin, dass nicht vertrauenswürdige Inhalte weiterhin Prompt-Injection nutzen können, um gefälschte Informationen in den Langzeitspeicher von ChatGPT einzufügen. Das bedeutet, dass Hacker die Schwachstelle in bestimmten Fällen weiterhin ausnutzen könnten, um schädliche Erinnerungen zu speichern und so langfristig persönliche Informationen zu stehlen.

OpenAI empfiehlt Benutzern, die in ChatGPT gespeicherten Erinnerungen regelmäßig auf Fehlalarme zu überprüfen. Außerdem stellt das Unternehmen detaillierte Anweisungen zum Verwalten und Löschen der im Tool gespeicherten Erinnerungen bereit.


[Anzeige_2]
Quelle: https://kinhtedothi.vn/nguoi-dung-chatgpt-co-nguy-co-bi-danh-cap-thong-tin.html

Kommentar (0)

No data
No data
Soldaten marschieren durch die heiße Sonne auf dem Übungsgelände
Beobachten Sie Hubschrauberübungen am Himmel von Hanoi zur Vorbereitung auf den Nationalfeiertag am 2. September
U23 Vietnam holt strahlend den Pokal der Südostasiatischen U23-Meisterschaft nach Hause
Die nördlichen Inseln sind wie „rohe Edelsteine“, billige Meeresfrüchte, 10 Minuten mit dem Boot vom Festland entfernt
Die mächtige Formation von 5 SU-30MK2-Kampfflugzeugen bereitet sich auf die A80-Zeremonie vor
S-300PMU1-Raketen im Kampfeinsatz zum Schutz des Himmels über Hanoi
Die Lotusblütezeit lockt Touristen in die majestätischen Berge und Flüsse von Ninh Binh
Cu Lao Mai Nha: Wo Wildheit, Majestät und Frieden miteinander verschmelzen
Hanoi ist seltsam, bevor Sturm Wipha Land erreicht
Verloren in der wilden Welt im Vogelgarten in Ninh Binh

Erbe

Figur

Geschäft

No videos available

Nachricht

Politisches System

Lokal

Produkt