
Diese Schwachstelle ermöglicht es Angreifern, bösartige Befehle direkt in den Speicher der KI einzuschleusen und so eine nützliche Funktion in eine dauerhafte Waffe zur Ausführung beliebigen Codes zu verwandeln (Abbildung: ST).
Laut einem Bericht von LayerX Security nutzte dieser Angriff eine Cross-Site Request Forgery (CSRF)-Schwachstelle aus, um bösartige Befehle in den persistenten Speicher von ChatGPT einzuschleusen.
Die ursprünglich für KI entwickelte „Speicher“-Funktion, mit der sich die KI nützliche Details wie Benutzernamen und Präferenzen für personalisierte Antworten merken kann, kann nun „ausgehebelt“ werden.
Sobald der Speicher mit Schadsoftware infiziert ist, bleiben diese Befehle dauerhaft bestehen – es sei denn, der Benutzer löscht sie manuell über die Einstellungen – und können über mehrere Geräte und Sitzungen hinweg ausgelöst werden.
„Besonders gefährlich an dieser Sicherheitslücke ist, dass sie nicht nur die Browsersitzung, sondern auch den permanenten Speicher der KI angreift“, sagte Michelle Levy, Direktorin für Sicherheitsforschung bei LayerX Security.
Levy erklärte: „Vereinfacht gesagt, nutzt der Angreifer einen Trick, um die KI auszutricksen und sie so zu zwingen, einen bösartigen Befehl in ihren Speicher zu schreiben. Das Gefährlichste daran ist, dass dieser Befehl dauerhaft in der KI verbleibt – selbst wenn der Benutzer den Computer wechselt, sich ab- und wieder anmeldet oder sogar einen anderen Browser verwendet.“
Später, wenn ein Benutzer eine völlig normale Anfrage stellt, kann er die Schadsoftware unbeabsichtigt aktivieren. Dadurch können Hacker unbemerkt Code ausführen, Daten stehlen oder eine umfassendere Kontrolle über das System erlangen.
Das beschriebene Angriffsszenario ist recht einfach: Zuerst meldet sich der Benutzer bei ChatGPT Atlas an. Er wird dazu verleitet, auf einen schädlichen Link zu klicken. Anschließend löst die schädliche Website heimlich eine CSRF-Anfrage aus und fügt unbemerkt schädliche Anweisungen in den Speicher von ChatGPT des Opfers ein.
Wenn ein Benutzer schließlich eine völlig legitime Anfrage stellt, beispielsweise die KI auffordert, Code zu schreiben, werden die infizierten „Erinnerungen“ ausgelöst.
LayerX weist darauf hin, dass das Problem durch den Mangel an robusten Anti-Phishing-Kontrollen in ChatGPT Atlas noch verschärft wird.
In Tests mit über 100 Sicherheitslücken und Phishing-Websites gelang es Atlas lediglich, 5,8 % der schädlichen Websites zu blockieren.
Diese Zahl ist im Vergleich zu Google Chrome (47 %) oder Microsoft Edge (53 %) viel zu niedrig, wodurch Atlas-Nutzer im Vergleich zu herkömmlichen Browsern „bis zu 90 % anfälliger“ für Angriffe sind.
Diese Entdeckung folgt auf eine weitere, zuvor von NeuralTrust demonstrierte Schwachstelle zur schnellen Malware-Einschleusung und zeigt, dass KI-Browser zu einer neuen Angriffsfront werden.
OpenAI hat Anfang letzter Woche den Webbrowser ChatGPT Atlas veröffentlicht. Wenig überraschend hat OpenAI seine KI-Engine ChatGPT in diesen Browser integriert und bietet Nutzern so eine verbesserte Unterstützung beim Surfen im Web.
Wenn ein Benutzer in ChatGPT Atlas auf ein Suchergebnis klickt, erscheint direkt neben dem Webseitenfenster ein ChatGPT-Dialogfeld, in dem er Fragen zum angezeigten Inhalt stellen kann, wodurch Lesezeit gespart wird.
ChatGPT kann außerdem Website-Inhalte zusammenfassen, Texte beim Verfassen von E-Mails bearbeiten oder Vorschläge zur Umformulierung unterbreiten, um sie besser an den Kontext anzupassen.
Quelle: https://dantri.com.vn/cong-nghe/nguoi-dung-chatgpt-atlas-co-the-bi-danh-cap-du-lieu-voi-ma-doc-vinh-vien-20251028111706750.htm






Kommentar (0)