Vietnam.vn - Nền tảng quảng bá Việt Nam

Sicherheitsrisiken bei der Verwendung von ChatGPT

Báo Thanh niênBáo Thanh niên16/04/2023

[Anzeige_1]

Amerikas größte Bank, JPMorgan Chase, Amazon und das Technologieunternehmen Accenture haben ihren Mitarbeitern aus Datenschutzgründen die Nutzung von ChatGPT untersagt.

Laut CNN sind die Bedenken dieser Unternehmen völlig unbegründet. Am 20. März trat im Chatbot von OpenAI ein Fehler auf, der Nutzerdaten offenlegte. Obwohl der Fehler schnell behoben wurde, gab das Unternehmen bekannt, dass der Vorfall 1,2 % der ChatGPT Plus-Nutzer betraf. Zu den durchgesickerten Informationen gehörten vollständige Namen, E-Mail-Adressen, Rechnungsadressen, die letzten vier Ziffern der Kreditkartennummern und das Ablaufdatum der Karten.

Am 31. März verhängte die italienische Datenschutzbehörde (Garante) ein vorübergehendes Verbot für ChatGPT unter Berufung auf Datenschutzbedenken, nachdem OpenAI die Sicherheitslücke offengelegt hatte.

Mark McCreary, Co -Vorsitzender für Datensicherheit und Datenschutz bei der Anwaltskanzlei Fox Rothschild LLP, sagte gegenüber CNN, dass die Sicherheitsbedenken rund um ChatGPT nicht übertrieben seien. Er verglich den KI-Chatbot mit einer „Black Box“.

ChatGPT wurde im November 2022 von OpenAI eingeführt und erregte schnell Aufmerksamkeit durch seine Fähigkeit, Aufsätze zu schreiben, Geschichten zu verfassen oder Songtexte zu verfassen, indem es ihnen Eingabeaufforderungen gab. Auch Tech-Giganten wie Google und Microsoft haben KI-Tools auf den Markt gebracht, die ähnlich funktionieren und auf großen Sprachmodellen basieren, die auf riesigen Online-Datenspeichern trainiert wurden.

chatgpt.jpg

Nach Italiens Schritt erwägt auch Deutschland ein Verbot von ChatGPT

Wenn Benutzer Informationen in diese Tools eingeben, wissen sie nicht, wie diese verwendet werden, fügte Herr McCreay hinzu. Dies ist für Unternehmen besorgniserregend, da immer mehr Mitarbeiter Tools zum Schreiben von geschäftlichen E-Mails oder zum Erstellen von Notizen für Meetings verwenden, was das Risiko der Offenlegung von Geschäftsgeheimnissen erhöht.

Steve Mills, Leiter der Abteilung für KI-Ethik bei der Boston Consulting Group (BCG), sagte, Unternehmen seien besorgt, dass Mitarbeiter versehentlich vertrauliche Informationen preisgeben könnten. Wenn die von den Mitarbeitern eingegebenen Daten zum Trainieren dieses KI-Tools verwendet würden, hätten sie die Kontrolle über die Daten an jemand anderen abgegeben.

Gemäß der Datenschutzrichtlinie von OpenAI kann das Unternehmen alle personenbezogenen Daten und Informationen von Servicenutzern sammeln, um seine KI-Modelle zu verbessern. OpenAI kann diese Informationen nutzen, um seine Dienste zu verbessern oder zu analysieren, Forschung zu betreiben, mit Nutzern zu kommunizieren und neue Programme und Dienste zu entwickeln.

Die Datenschutzrichtlinie besagt, dass OpenAI personenbezogene Daten ohne Benachrichtigung der Nutzer an Dritte weitergeben kann, sofern dies nicht gesetzlich vorgeschrieben ist. OpenAI verfügt zwar über eigene Nutzungsbedingungen, überträgt jedoch die Verantwortung für die entsprechenden Maßnahmen bei der Interaktion mit KI-Tools größtenteils den Nutzern.

Die Eigentümer von ChatGPT haben in ihrem Blog über ihren Ansatz für sichere KI berichtet. Das Unternehmen betont, dass es Daten nicht für den Verkauf von Dienstleistungen, Werbung oder die Erstellung von Nutzerprofilen verwendet. Stattdessen nutzt OpenAI Daten, um seine Modelle nützlicher zu machen. Beispielsweise werden Nutzergespräche zum Training von ChatGPT verwendet.

06DRHXAVI9Fvj02541vbBqy-1.webp

Die Datenschutzrichtlinie von ChatGPT gilt als recht vage.

Google, das Unternehmen hinter Bard AI, hat zusätzliche Datenschutzbestimmungen für seine KI-Nutzer erlassen. Das Unternehmen wählt einen kleinen Teil der Konversation aus und verwendet automatisierte Tools, um personenbezogene Daten zu entfernen. Dies trägt dazu bei, Bard zu verbessern und gleichzeitig die Privatsphäre der Nutzer zu schützen.

Die Beispielgespräche werden von menschlichen Trainern überprüft und bis zu drei Jahre lang unabhängig vom Google-Konto des Nutzers gespeichert. Google weist die Nutzer zudem darauf hin, in Gesprächen mit Bard AI keine persönlichen Daten über sich selbst oder andere preiszugeben. Der Tech-Riese betont, dass diese Gespräche nicht für Werbezwecke verwendet werden und kündigt künftig Änderungen an.

Bard AI ermöglicht es Nutzern, die Speicherung von Konversationen in ihren Google-Konten zu deaktivieren und Konversationen über einen Link zu überprüfen oder zu löschen. Darüber hinaus verfügt das Unternehmen über Sicherheitsvorkehrungen, die verhindern sollen, dass Bard persönliche Informationen in Antworten einfügt.

Steve Mills sagt, dass Benutzer und Entwickler die in neuen Technologien verborgenen Sicherheitsrisiken manchmal erst entdecken, wenn es zu spät ist. Beispielsweise können AutoFill-Funktionen versehentlich die Sozialversicherungsnummern der Benutzer preisgeben.

Benutzer sollten in diese Tools nichts eingeben, was sie nicht mit anderen teilen möchten, sagte Herr Mills.


[Anzeige_2]
Quellenlink

Kommentar (0)

No data
No data

Gleiches Thema

Gleiche Kategorie

Bewahren Sie den Geist des Mittherbstfestes durch die Farben der Figuren
Entdecken Sie das einzige Dorf in Vietnam unter den 50 schönsten Dörfern der Welt
Warum sind rote Fahnenlaternen mit gelben Sternen dieses Jahr so ​​beliebt?
Vietnam gewinnt den Musikwettbewerb Intervision 2025

Gleicher Autor

Erbe

Figur

Geschäft

No videos available

Nachricht

Politisches System

Lokal

Produkt