Aus privaten Gesprächen werden öffentliche Daten
Laut einem Bericht von Fast Company wurden Tausende private Gespräche von Google indexiert. Dies könnte nur die Spitze des Eisbergs sein. Millionen weitere Gespräche könnten offengelegt werden.
Obwohl diese Gespräche keine direkt identifizierenden Informationen enthielten, teilten viele Benutzer äußerst sensible persönliche Details – von Beziehungen bis hin zu traumatischen Erlebnissen – mit, wodurch eine Identifizierung möglich wurde.
Alles begann, als einige Cybersicherheitsexperten entdeckten, dass Benutzer mit einer einfachen Google-Suche problemlos auf öffentlich freigegebene Chats zugreifen konnten.
Der durchgesickerte Inhalt umfasst nicht nur Beispielabsätze und technische Fragen, sondern auch persönliche Informationen, vertrauliche Arbeitsinformationen und sogar private Vertraulichkeiten.
Als Ursache wurde die Funktion „Chat teilen“ ermittelt, ein von OpenAI bereitgestelltes Dienstprogramm, mit dem Benutzer Chat-Inhalte mit anderen teilen können. Wenn Benutzer „Diesen Chat auffindbar machen“ auswählen, erstellt das System einen öffentlichen Link, der von Suchmaschinen indiziert werden kann.
Es ist erwähnenswert, dass die Benutzeroberfläche dieser Funktion nicht klar genug ist, was bei vielen Menschen zu dem Missverständnis führt, dass sie Inhalte nur mit Freunden oder Kollegen teilen, anstatt sie online öffentlich zu machen.
Als Reaktion auf die Gegenreaktion ergriff OpenAI sofort Maßnahmen: Es setzte die Freigabefunktion aus und arbeitete mit Google zusammen, um die entsprechenden Links zu entfernen.
Laut Fast Company wurden mehr als 4.500 solcher Links entdeckt, eine beachtliche Zahl, wenn man bedenkt, dass ChatGPT Hunderte Millionen Benutzer weltweit hat.
Beunruhigend ist, dass viele Menschen ChatGPT zum Schreiben von E-Mails, zum Austausch von Arbeitsergebnissen, zum Ausnutzen medizinischer Informationen oder sogar zum Anvertrauen persönlicher psychologischer Probleme genutzt haben, weil sie glaubten, dies sei ein privater Raum.
Alarmglocken läuten hinsichtlich des Datenschutzes im Zeitalter der KI
Der Vorfall wirft große Fragen zur Verantwortung von KI-Unternehmen für Nutzerdaten auf. Bietet OpenAI genügend Transparenz, damit die Nutzer ihre Privatsphäre verstehen? Ist das Datenschutzniveau, das die Nutzer erhalten, wirklich angemessen für die Sensibilität der Inhalte?
OpenAI-CEO Sam Altman hat Benutzer davor gewarnt, vertrauliche persönliche Daten an ChatGPT weiterzugeben, und räumte ein, dass das Unternehmen zur Herausgabe solcher Informationen gezwungen werden könnte, wenn es von einem Gericht dazu gesetzlich aufgefordert würde.
Bemerkenswerterweise erwähnte Altman in seinen Aussagen jedoch nicht, dass Gespräche, die Benutzer freiwillig teilen, öffentlich in Suchmaschinen indiziert werden könnten.
Darüber hinaus ist es nicht das erste Mal, dass ChatGPT im Zusammenhang mit Datenlecks in Frage gestellt wird. Forscher warnen, dass große Sprachmodelle wie GPT „versehentlich“ alte Daten wiederherstellen können, wenn Benutzer ihre Fragen geschickt stellen.
Es lässt sich nicht leugnen, dass Tools wie ChatGPT die Art und Weise revolutioniert haben, wie Menschen nach Informationen suchen und Inhalte erstellen. Neben der Benutzerfreundlichkeit müssen sich die Nutzer jedoch darüber im Klaren sein, dass ohne starke technologische Barrieren und sorgfältige persönliche Manipulation nichts wirklich privat ist.
Quelle: https://baovanhoa.vn/nhip-song-so/hang-nghin-cuoc-tro-chuyen-chatgpt-bi-ro-ri-cong-khai-tren-google-158723.html
Kommentar (0)