Vietnam.vn - Nền tảng quảng bá Việt Nam

Sicherheitsrisiken bei der Verwendung von ChatGPT

Báo Thanh niênBáo Thanh niên16/04/2023


Die größte amerikanische Bank, JPMorgan Chase, Amazon und das Technologieunternehmen Accenture haben ihren Mitarbeitern aus Gründen der Datensicherheit die Nutzung von ChatGPT untersagt.

Laut CNN sind die Bedenken dieser Unternehmen völlig berechtigt. Am 20. März trat bei einem Chatbot von OpenAI ein Fehler auf, der Nutzerdaten offenlegte. Obwohl der Fehler schnell behoben wurde, gab das Unternehmen bekannt, dass 1,2 % der ChatGPT Plus-Nutzer betroffen waren. Zu den offengelegten Informationen gehörten vollständige Namen, E-Mail-Adressen, Rechnungsadressen, die letzten vier Ziffern von Kreditkartennummern und deren Ablaufdaten.

Am 31. März verhängte die italienische Datenschutzbehörde (Garante) ein vorläufiges Verbot für ChatGPT unter Berufung auf Datenschutzbedenken, nachdem OpenAI die Sicherheitslücke aufgedeckt hatte.

Mark McCreary, Co- Vorsitzender für Datensicherheit und Datenschutz bei der Anwaltskanzlei Fox Rothschild LLP, erklärte gegenüber CNN, die Sicherheitsbedenken bezüglich ChatGPT seien nicht übertrieben. Er verglich den KI-Chatbot mit einer „Blackbox“.

ChatGPT wurde im November 2022 von OpenAI veröffentlicht und erregte schnell Aufmerksamkeit durch seine Fähigkeit, anhand von Vorgaben Aufsätze zu schreiben, Geschichten zu verfassen oder Liedtexte zu erstellen. Auch Technologiekonzerne wie Google und Microsoft haben KI-Tools mit ähnlicher Funktionsweise auf den Markt gebracht, die auf großen Sprachmodellen basieren, welche mit riesigen Online-Datenspeichern trainiert wurden.

chatgpt.jpg

Nach dem Schritt Italiens erwägt auch Deutschland ein Verbot von ChatGPT.

„Wenn Nutzer Informationen in diese Tools eingeben, wissen sie nicht, wie diese verwendet werden“, fügte Herr McCreay hinzu. Dies bereitet Unternehmen Sorgen, da immer mehr Mitarbeiter Tools nutzen, um Arbeits-E-Mails zu schreiben oder Notizen für Besprechungen anzufertigen, wodurch das Risiko der Offenlegung von Geschäftsgeheimnissen steigt.

Steve Mills, Leiter der Abteilung für KI-Ethik bei der Boston Consulting Group (BCG), erklärte, Unternehmen seien besorgt darüber, dass Mitarbeiter versehentlich sensible Informationen preisgeben könnten. Wenn die von Mitarbeitern eingegebenen Daten zum Trainieren dieses KI-Tools verwendet werden, geben sie die Kontrolle über die Daten an Dritte ab.

Laut der Datenschutzrichtlinie von OpenAI kann das Unternehmen alle personenbezogenen Daten von Nutzern erfassen, um seine KI-Modelle zu verbessern. Diese Informationen können zur Verbesserung oder Analyse der Dienste, zur Durchführung von Forschung, zur Kommunikation mit Nutzern sowie zur Entwicklung neuer Programme und Dienste verwendet werden.

Die Datenschutzrichtlinie besagt, dass OpenAI personenbezogene Daten an Dritte weitergeben kann, ohne die Nutzer zu benachrichtigen, es sei denn, dies ist gesetzlich vorgeschrieben. OpenAI hat auch eigene Nutzungsbedingungen, legt aber einen Großteil der Verantwortung für den Umgang mit KI-Tools auf die Nutzer.

Die Betreiber von ChatGPT haben in ihrem Blog über ihren Ansatz für sichere KI berichtet. Das Unternehmen betont, dass es Daten nicht für den Verkauf von Dienstleistungen, Werbung oder die Erstellung von Nutzerprofilen verwendet. Stattdessen nutzt OpenAI Daten, um seine Modelle zu verbessern. So werden beispielsweise Nutzerkonversationen zum Training von ChatGPT verwendet.

06DRHXAVI9Fvj02541vbBqy-1.webp

Die Datenschutzrichtlinien von ChatGPT gelten als ziemlich vage.

Google, das Unternehmen hinter Bard AI, hat zusätzliche Datenschutzmaßnahmen für seine KI-Nutzer eingeführt. Das Unternehmen wählt einen kleinen Teil der Konversation aus und entfernt mithilfe automatisierter Tools personenbezogene Daten. Dies trägt zur Verbesserung von Bard bei und schützt gleichzeitig die Privatsphäre der Nutzer.

Beispielkonversationen werden von menschlichen Trainern geprüft und bis zu drei Jahre lang getrennt vom Google-Konto des Nutzers gespeichert. Google weist Nutzer außerdem darauf hin, in Konversationen mit Bard AI keine persönlichen Informationen über sich selbst oder andere preiszugeben. Der Technologiekonzern betont, dass diese Konversationen nicht für Werbezwecke verwendet werden und wird zukünftige Änderungen ankündigen.

Bard AI ermöglicht es Nutzern, das Speichern von Konversationen in ihren Google-Konten zu deaktivieren sowie Konversationen über einen Link einzusehen oder zu löschen. Darüber hinaus verfügt das Unternehmen über Sicherheitsvorkehrungen, die verhindern sollen, dass Bard personenbezogene Daten in Antworten einbezieht.

Steve Mills erklärt, dass Nutzer und Entwickler die in neuen Technologien verborgenen Sicherheitsrisiken manchmal erst dann entdecken, wenn es zu spät ist. Beispielsweise können Autofill-Funktionen versehentlich die Sozialversicherungsnummern der Nutzer preisgeben.

„Die Nutzer sollten in diese Tools nichts eingeben, was sie nicht auch mit anderen teilen möchten“, sagte Herr Mills.



Quellenlink

Kommentar (0)

No data
No data

Gleiches Thema

Gleiche Kategorie

Weiblicher Fan trägt Hochzeitskleid zum G-Dragon-Konzert in Hung Yen
Fasziniert von der Schönheit des Dorfes Lo Lo Chai während der Buchweizenblütezeit
Der junge Reis in Me Tri steht in Flammen, erfüllt vom rhythmischen Stampfen des Stößels für die neue Ernte.
Nahaufnahme einer Krokodilsechse in Vietnam, die dort seit der Zeit der Dinosaurier vorkommt.

Gleicher Autor

Erbe

Figur

Geschäft

Die Zweitplatzierte bei Miss Vietnam Student, Tran Thi Thu Hien, präsentierte anhand von Beiträgen zum Happy Vietnam-Wettbewerb ein Bild von einem glücklichen Vietnam.

Aktuelle Ereignisse

Politisches System

Lokal

Produkt