Amerikas größte Bank JPMorgan Chase, Amazon und das Technologieunternehmen Accenture haben ihren Mitarbeitern aus Datenschutzgründen die Nutzung von ChatGPT untersagt.
Laut CNN sind die Bedenken dieser Unternehmen durchaus berechtigt. Am 20. März trat beim Chatbot von OpenAI ein Fehler auf, der Nutzerdaten offenlegte. Obwohl der Fehler schnell behoben wurde, gab das Unternehmen bekannt, dass der Vorfall 1,2 % der ChatGPT Plus-Nutzer betraf. Zu den durchgesickerten Informationen gehörten vollständige Namen, E-Mail-Adressen, Rechnungsadressen, die letzten vier Ziffern der Kreditkartennummern und das Ablaufdatum der Karten.
Am 31. März verhängte die italienische Datenschutzbehörde (Garante) ein vorübergehendes Verbot für ChatGPT unter Berufung auf Datenschutzbedenken, nachdem OpenAI die Sicherheitslücke offengelegt hatte.
Mark McCreary, Co -Vorsitzender für Datensicherheit und Datenschutz bei der Anwaltskanzlei Fox Rothschild LLP, sagte gegenüber CNN, die Sicherheitsbedenken rund um ChatGPT seien nicht übertrieben. Er verglich den KI-Chatbot mit einer „Black Box“.
ChatGPT wurde im November 2022 von OpenAI veröffentlicht und erregte schnell Aufmerksamkeit durch seine Fähigkeit, durch die Ausgabe von Eingabeaufforderungen Essays, Geschichten und Songtexte zu schreiben. Auch Tech-Giganten wie Google und Microsoft haben ähnliche KI-Tools veröffentlicht, die auf großen Sprachmodellen basieren, die auf riesigen Online-Datenspeichern trainiert wurden.
Nach Italiens Schritt erwägt auch Deutschland ein Verbot von ChatGPT
Wenn Nutzer Informationen in diese Tools eingeben, wissen sie nicht, wie diese verwendet werden, fügte McCreay hinzu. Dies ist für Unternehmen besorgniserregend, da immer mehr Mitarbeiter Tools nutzen, um geschäftliche E-Mails zu schreiben oder Notizen für Meetings zu machen. Dadurch steigt das Risiko, dass Geschäftsgeheimnisse preisgegeben werden.
Steve Mills, Leiter der Abteilung für KI-Ethik bei der Boston Consulting Group (BCG), sagte, Unternehmen seien besorgt, dass Mitarbeiter versehentlich vertrauliche Informationen preisgeben könnten. Wenn die von den Mitarbeitern eingegebenen Daten zum Trainieren dieses KI-Tools verwendet würden, hätten sie die Kontrolle über die Daten an jemand anderen verloren.
Gemäß der Datenschutzrichtlinie von OpenAI kann das Unternehmen alle personenbezogenen Daten und Informationen seiner Servicenutzer sammeln, um KI-Modelle zu verbessern. Diese Informationen können zur Verbesserung oder Analyse der Dienste, zur Durchführung von Forschung, zur Kommunikation mit Nutzern und zur Entwicklung neuer Programme und Dienste verwendet werden.
Die Datenschutzrichtlinie besagt, dass OpenAI personenbezogene Daten ohne Benachrichtigung der Nutzer an Dritte weitergeben kann, sofern dies nicht gesetzlich vorgeschrieben ist. OpenAI verfügt zwar über eigene Nutzungsbedingungen, überträgt jedoch die Verantwortung für die entsprechenden Maßnahmen bei der Interaktion mit KI-Tools größtenteils den Nutzern.
Die Eigentümer von ChatGPT haben in ihrem Blog über ihren Ansatz für sichere KI berichtet. Das Unternehmen betont, dass es Daten nicht zum Verkauf von Dienstleistungen, zur Werbung oder zur Erstellung von Nutzerprofilen verwendet, sondern dass OpenAI Daten nutzt, um seine Modelle nützlicher zu machen. Beispielsweise werden Nutzergespräche zum Training von ChatGPT verwendet.
Die Datenschutzrichtlinie von ChatGPT gilt als recht vage.
Google, das Unternehmen hinter Bard AI, hat zusätzliche Datenschutzbestimmungen für seine KI-Nutzer erlassen. Das Unternehmen wählt einen kleinen Teil der Konversation aus und verwendet automatisierte Tools, um personenbezogene Daten zu entfernen. Dies trägt dazu bei, Bard zu verbessern und gleichzeitig die Privatsphäre der Nutzer zu schützen.
Die Beispielgespräche werden von menschlichen Trainern überprüft und bis zu drei Jahre lang unabhängig vom Google-Konto des Nutzers gespeichert. Google weist die Nutzer zudem darauf hin, in Gesprächen mit Bard AI keine persönlichen Daten über sich selbst oder andere preiszugeben. Der Tech-Riese betont, dass diese Gespräche nicht für Werbezwecke verwendet werden und kündigt künftig Änderungen an.
Bard AI ermöglicht es Nutzern, die Speicherung von Konversationen in ihren Google-Konten zu deaktivieren und Konversationen über einen Link zu überprüfen oder zu löschen. Darüber hinaus verfügt das Unternehmen über Sicherheitsvorkehrungen, die verhindern sollen, dass Bard persönliche Informationen in Antworten einfügt.
Steve Mills sagt, dass Benutzer und Entwickler die in neuen Technologien verborgenen Sicherheitsrisiken manchmal erst entdecken, wenn es zu spät ist. Beispielsweise können Autovervollständigungsfunktionen versehentlich die Sozialversicherungsnummern von Benutzern preisgeben.
Benutzer sollten in diese Tools nichts eingeben, was sie nicht mit anderen teilen möchten, sagte Herr Mills.
[Anzeige_2]
Quellenlink
Kommentar (0)