Laut The Telegraph tauchten mehr als 500 private Chats mit ChatGPT in den Google-Suchergebnissen auf, was Bedenken hinsichtlich Datenschutz und Datensicherheit aufkommen ließ.
Diese Chats beinhalten sensible Inhalte wie interne Diskussionen, betrügerisches Verhalten, Pläne für Cyberangriffe und sogar Fragen von Ärzten und Anwälten.
Der Vorfall wurde vom Online-Forscher Henk van Ess entdeckt, der sagte, dass möglicherweise noch bis zu 110.000 weitere Konversationen in der Wayback Machine – dem Webarchivierungstool des Internet Archive – gespeichert seien.
Diese Konversationen wurden ursprünglich über die Funktion „Chat teilen“ als öffentliche URL-Links geteilt.
Allerdings ließ OpenAI, das Unternehmen, das ChatGPT entwickelt hat, diese Links auf Google und anderen Suchmaschinen indexieren, was dazu führte, dass Nutzer unwissentlich persönliche Informationen preisgaben.

OpenAI versucht, von Google gesammelte Inhalte zu entfernen.
Diese Woche hat OpenAI die Möglichkeit deaktiviert, geteilte Inhalte zu indexieren, und arbeitet daran, Inhalte zu entfernen, die bereits von Google gecrawlt wurden.
„Diese Teilen-Funktion barg ein zu hohes Risiko, dass Nutzer versehentlich private Inhalte öffentlich machten“, räumte Dane Stucky, Chief Information Security Officer von OpenAI, ein. „Wir entfernen diese Option daher vollständig.“
Einige der durchgesickerten Chats zeigen auch, wie Studenten ChatGPT missbrauchen, um bei Prüfungen zu betrügen, während andere persönliche Identitäten oder sensible Dokumente preisgeben.
OpenAI-CEO Sam Altman räumte außerdem ein, dass ChatGPT nicht über die gleichen Sicherheitsmechanismen wie Anwälte, Ärzte oder Berater verfügt, obwohl viele Menschen Chatbots als „Vertrauten“ nutzen.
Laut Cybernews berichteten einige Reddit-Nutzer, dass sie Chats gesehen hätten, die vollständige Namen, Telefonnummern, E-Mail-Adressen, Anschriften und detaillierte Berufsverläufe enthielten.
„Ich habe jemanden dabei beobachtet, wie er einen Lebenslauf erstellte, komplett mit Namen, Telefonnummer, E-Mail-Adresse, Anschrift und Berufserfahrung“, schrieb ein Reddit-Nutzer.
Darüber hinaus wurden auch eine Reihe von Konversationen geleakt, die private Gedanken, persönliche Geschichten, Namen von Kindern, Fotos, Wohnadressen und sogar Stimmen von Nutzern enthielten, was viele Menschen schockierte.
Quelle: https://nld.com.vn/phat-hien-gay-soc-บน-chatgpt-khien-nguoi-dung-choang-vang-196250804134031378.htm










Kommentar (0)