Vietnam.vn - Nền tảng quảng bá Việt Nam

Sicherheitsrisiken bei der Verwendung von ChatGPT

Báo Thanh niênBáo Thanh niên16/04/2023

[Anzeige_1]

Amerikas größte Bank JPMorgan Chase, Amazon und das Technologieunternehmen Accenture haben ihren Mitarbeitern aus Datenschutzbedenken die Nutzung von ChatGPT untersagt.

Laut CNN sind die Bedenken dieser Unternehmen berechtigt. Am 20. März trat beim Chatbot von OpenAI ein Fehler auf, der Nutzerdaten offenlegte. Obwohl der Fehler schnell behoben wurde, gab das Unternehmen bekannt, dass der Vorfall 1,2 % der ChatGPT Plus-Nutzer betraf. Zu den durchgesickerten Informationen gehörten vollständige Namen, E-Mail-Adressen, Rechnungsadressen, die letzten vier Ziffern der Kreditkartennummern und das Ablaufdatum der Karten.

Am 31. März verhängte die italienische Datenschutzbehörde (Garante) ein vorübergehendes Verbot für ChatGPT unter Berufung auf Datenschutzbedenken, nachdem OpenAI die Sicherheitslücke offengelegt hatte.

Mark McCreary, Co -Vorsitzender für Datensicherheit und Datenschutz bei der Anwaltskanzlei Fox Rothschild LLP, sagte gegenüber CNN, die Sicherheitsbedenken rund um ChatGPT seien nicht übertrieben. Er verglich den KI-Chatbot mit einer „Black Box“.

ChatGPT wurde im November 2022 von OpenAI veröffentlicht und erregte schnell Aufmerksamkeit durch seine Fähigkeit, Essays, Geschichten und Songtexte durch die Ausgabe von Eingabeaufforderungen zu schreiben. Auch Tech-Giganten wie Google und Microsoft haben ähnliche KI-Tools veröffentlicht, die auf großen Sprachmodellen basieren, die auf riesigen Online-Datenspeichern trainiert wurden.

chatgpt.jpg

Nach Italiens Schritt erwägt auch Deutschland ein Verbot von ChatGPT

Wenn Nutzer Informationen in diese Tools eingeben, wissen sie nicht, wie diese verwendet werden, fügte McCreay hinzu. Dies ist für Unternehmen besorgniserregend, da immer mehr Mitarbeiter Tools nutzen, um geschäftliche E-Mails zu schreiben oder Notizen für Meetings zu machen. Dies erhöht das Risiko, Geschäftsgeheimnisse preiszugeben.

Steve Mills, Direktor für KI-Ethik bei der Boston Consulting Group (BCG), sagte, Unternehmen seien besorgt, dass Mitarbeiter versehentlich vertrauliche Informationen preisgeben könnten. Wenn die von den Mitarbeitern eingegebenen Daten zum Trainieren dieses KI-Tools verwendet würden, hätten sie die Kontrolle über die Daten an jemand anderen verloren.

Gemäß der Datenschutzrichtlinie von OpenAI kann das Unternehmen alle personenbezogenen Daten und Informationen seiner Servicenutzer sammeln, um KI-Modelle zu verbessern. Diese Informationen können genutzt werden, um die eigenen Dienste zu verbessern oder zu analysieren, Forschung zu betreiben, mit Nutzern zu kommunizieren und neue Programme und Dienste zu entwickeln.

Die Datenschutzrichtlinie besagt, dass OpenAI personenbezogene Daten ohne Benachrichtigung der Nutzer an Dritte weitergeben kann, sofern dies nicht gesetzlich vorgeschrieben ist. OpenAI verfügt zwar über eigene Nutzungsbedingungen, überträgt jedoch die Verantwortung für die entsprechenden Maßnahmen bei der Interaktion mit KI-Tools größtenteils den Nutzern.

Die Eigentümer von ChatGPT haben in ihrem Blog über ihren Ansatz für sichere KI berichtet. Das Unternehmen betont, dass es Daten nicht für den Verkauf von Dienstleistungen, Werbung oder die Erstellung von Nutzerprofilen nutzt, sondern dass OpenAI Daten nutzt, um seine Modelle nützlicher zu machen. Beispielsweise werden Nutzergespräche genutzt, um ChatGPT zu trainieren.

06DRHXAVI9Fvj02541vbBqy-1.webp

Die Datenschutzrichtlinie von ChatGPT gilt als recht vage.

Google, das Unternehmen hinter Bard AI, hat zusätzliche Datenschutzbestimmungen für seine KI-Nutzer erlassen. Das Unternehmen wählt einen kleinen Teil der Konversation aus und verwendet automatisierte Tools, um personenbezogene Daten zu entfernen. Dies trägt dazu bei, Bard zu verbessern und gleichzeitig die Privatsphäre der Nutzer zu schützen.

Die Beispielgespräche werden von menschlichen Trainern überprüft und bis zu drei Jahre lang unabhängig vom Google-Konto des Nutzers gespeichert. Google weist die Nutzer außerdem darauf hin, in Gesprächen mit Bard AI keine persönlichen Daten über sich selbst oder andere preiszugeben. Der Tech-Gigant betont, dass diese Gespräche nicht für Werbezwecke verwendet werden und kündigt künftig Änderungen an.

Bard AI ermöglicht es Nutzern, die Speicherung von Konversationen in ihren Google-Konten zu deaktivieren sowie Konversationen über einen Link zu überprüfen oder zu löschen. Darüber hinaus verfügt das Unternehmen über Sicherheitsvorkehrungen, die verhindern sollen, dass Bard persönliche Informationen in Antworten einfügt.

Steve Mills sagt, dass Nutzer und Entwickler die in neuen Technologien verborgenen Sicherheitsrisiken manchmal erst entdecken, wenn es zu spät ist. So können beispielsweise Autovervollständigungsfunktionen versehentlich die Sozialversicherungsnummern von Nutzern preisgeben.

Benutzer sollten in diese Tools nichts eingeben, was sie nicht mit anderen teilen möchten, sagte Herr Mills.


[Anzeige_2]
Quellenlink

Kommentar (0)

No data
No data

Gleiches Thema

Gleiche Kategorie

Dorf auf dem Berggipfel in Yen Bai: Schwebende Wolken, schön wie ein Märchenland
Dorf versteckt im Tal in Thanh Hoa zieht Touristen an, um zu erleben
Die Küche von Ho-Chi-Minh-Stadt erzählt Geschichten von den Straßen
Vietnam – Polen malt „Symphonie des Lichts“ in den Himmel über Da Nang

Gleicher Autor

Erbe

Figur

Geschäft

No videos available

Nachricht

Politisches System

Lokal

Produkt