Funktion zum Teilen von Chats über einen öffentlichen Link auf ChatGPT – Foto: Techradar
ChatGPT erreicht mittlerweile täglich über 2,5 Milliarden Anfragen von Benutzern weltweit, was die wachsende Beliebtheit dieses Chatbots zeigt.
Dieses Tool stößt jedoch auf heftigen Widerstand seitens der Benutzer, da die Funktion „Teilen“ dazu geführt hat, dass in Tausenden von Gesprächen vertrauliche Informationen an Google und einige Suchmaschinen im Internet weitergegeben wurden.
Hohes Sicherheitsrisiko
Herr Vu Ngoc Son – Leiter der Technologieabteilung der National Cyber Security Association (NCA) – schätzte, dass der oben genannte Vorfall ein hohes Sicherheitsrisiko für ChatGPT-Benutzer darstellt.
„Bei dem oben genannten Vorfall handelt es sich nicht unbedingt um einen technischen Fehler, da eine gewisse Eigeninitiative des Nutzers beim Klicken auf die Schaltfläche „Teilen“ vorliegt. Das Problem liegt jedoch eher im Design des KI-Chatbots, der die Nutzer verwirrt und nicht ausreichend vor dem Risiko des Verlusts personenbezogener Daten beim Teilen warnt“, analysierte Herr Vu Ngoc Son.
Bei ChatGPT wird diese Funktion implementiert, nachdem der Benutzer den Chat über einen öffentlichen Link freigegeben hat. Der Inhalt wird auf dem Server von OpenAI als öffentliche Website (chatgpt.com/share/...) gespeichert. Für den Zugriff sind weder Anmeldung noch Kennwort erforderlich.
Die Crawler von Google scannen und indizieren diese Seiten automatisch, sodass sie in den Suchergebnissen erscheinen, einschließlich vertraulicher Texte, Bilder oder Chatdaten.
Viele Nutzer waren sich des Risikos nicht bewusst und dachten, sie würden den Chat mit Freunden oder Kontakten teilen. Dies führte dazu, dass Tausende von Unterhaltungen offengelegt wurden, die in einigen Fällen sensible persönliche Informationen enthielten.
Obwohl OpenAI diese Funktion nach heftigen Reaktionen aus der Community Ende Juli 2025 schnell entfernte, dauerte es dennoch einige Zeit, sich mit Google abzustimmen, um die alten Indizes zu entfernen. Insbesondere bei dem komplexen Speichersystem, zu dem auch die Cache-Server von Google gehören, ist dies nicht schnell möglich.
Behandeln Sie KI-Chatbots nicht als „Sicherheits-Blackbox“
Datensicherheitsexperte Vu Ngoc Son – Technologiechef der National Cyber Security Association (NCA) – Foto: CHI HIEU
Das Durchsickern Tausender Chatprotokolle kann für Benutzer Risiken mit sich bringen, wie etwa die Preisgabe persönlicher und geschäftlicher Geheimnisse, Reputationsschäden, finanzielle Risiken oder sogar Sicherheitsrisiken durch die Preisgabe von Privatadressen.
„KI-fähige Chatbots sind nützlich, aber keine ‚Blackbox‘, da freigegebene Daten für immer im Web existieren können, wenn sie nicht kontrolliert werden.
Der oben beschriebene Vorfall ist sicherlich eine Lehre für Anbieter und Nutzer. Andere KI-Dienstleister können aus dieser Erfahrung lernen und Funktionen mit klareren und transparenteren Warnungen entwickeln.
Gleichzeitig müssen Benutzer auch proaktiv die unkontrollierte Veröffentlichung identifizierender oder persönlicher Informationen auf KI-Plattformen einschränken“, empfiehlt Sicherheitsexperte Vu Ngoc Son.
Laut Datensicherheitsexperten zeigt der oben genannte Vorfall, dass rechtliche Rahmenbedingungen und Cybersicherheitsstandards für KI erforderlich sind. KI-Anbieter und -Entwickler müssen zudem Systeme entwickeln, die Sicherheit gewährleisten und das Risiko von Datenlecks vermeiden, beispielsweise durch Schwachstellen, Software-Schwachstellen, die zu Datenbankangriffen führen, mangelnde Kontrolle, die zu Vergiftungen führt, und Missbrauch zur Beantwortung falscher und verzerrter Fragen.
Nutzer müssen außerdem die Weitergabe persönlicher Daten an KI kontrollieren und dürfen keine sensiblen Informationen weitergeben. Im Bedarfsfall empfiehlt es sich, den anonymen Modus zu verwenden oder Informationen aktiv zu verschlüsseln, um zu vermeiden, dass Daten direkt mit bestimmten Personen verknüpft werden.
Quelle: https://tuoitre.vn/hang-ngan-cuoc-tro-chuyen-voi-chatgpt-bi-lo-tren-google-nguoi-dung-luu-y-gi-20250805152646255.htm
Kommentar (0)