Vietnam.vn - Nền tảng quảng bá Việt Nam

Sicherheitsrisiken bei der Verwendung von ChatGPT

Báo Thanh niênBáo Thanh niên16/04/2023

[Anzeige_1]

Amerikas größte Bank JPMorgan Chase, Amazon und das Technologieunternehmen Accenture haben ihren Mitarbeitern aus Datenschutzgründen die Nutzung von ChatGPT untersagt.

Laut CNN sind die Bedenken dieser Unternehmen durchaus berechtigt. Am 20. März trat beim Chatbot von OpenAI ein Fehler auf, der Nutzerdaten offenlegte. Obwohl der Fehler schnell behoben wurde, gab das Unternehmen bekannt, dass der Vorfall 1,2 % der ChatGPT Plus-Nutzer betraf. Zu den durchgesickerten Informationen gehörten vollständige Namen, E-Mail-Adressen, Rechnungsadressen, die letzten vier Ziffern der Kreditkartennummern und das Ablaufdatum der Karten.

Am 31. März verhängte die italienische Datenschutzbehörde (Garante) ein vorübergehendes Verbot für ChatGPT unter Berufung auf Datenschutzbedenken, nachdem OpenAI die Sicherheitslücke offengelegt hatte.

Mark McCreary, Co -Vorsitzender für Datensicherheit und Datenschutz bei der Anwaltskanzlei Fox Rothschild LLP, sagte gegenüber CNN, die Sicherheitsbedenken rund um ChatGPT seien nicht übertrieben. Er verglich den KI-Chatbot mit einer „Black Box“.

ChatGPT wurde im November 2022 von OpenAI veröffentlicht und erregte schnell Aufmerksamkeit durch seine Fähigkeit, durch die Ausgabe von Eingabeaufforderungen Essays, Geschichten und Songtexte zu schreiben. Auch Tech-Giganten wie Google und Microsoft haben ähnliche KI-Tools veröffentlicht, die auf großen Sprachmodellen basieren, die auf riesigen Online-Datenspeichern trainiert wurden.

chatgpt.jpg

Nach Italiens Schritt erwägt auch Deutschland ein Verbot von ChatGPT

Wenn Nutzer Informationen in diese Tools eingeben, wissen sie nicht, wie diese verwendet werden, fügte McCreay hinzu. Dies ist für Unternehmen besorgniserregend, da immer mehr Mitarbeiter Tools nutzen, um geschäftliche E-Mails zu schreiben oder Notizen für Meetings zu machen. Dadurch steigt das Risiko, dass Geschäftsgeheimnisse preisgegeben werden.

Steve Mills, Leiter der Abteilung für KI-Ethik bei der Boston Consulting Group (BCG), sagte, Unternehmen seien besorgt, dass Mitarbeiter versehentlich vertrauliche Informationen preisgeben könnten. Wenn die von den Mitarbeitern eingegebenen Daten zum Trainieren dieses KI-Tools verwendet würden, hätten sie die Kontrolle über die Daten an jemand anderen verloren.

Gemäß der Datenschutzrichtlinie von OpenAI kann das Unternehmen alle personenbezogenen Daten und Informationen seiner Servicenutzer sammeln, um KI-Modelle zu verbessern. Diese Informationen können zur Verbesserung oder Analyse der Dienste, zur Durchführung von Forschung, zur Kommunikation mit Nutzern und zur Entwicklung neuer Programme und Dienste verwendet werden.

Die Datenschutzrichtlinie besagt, dass OpenAI personenbezogene Daten ohne Benachrichtigung der Nutzer an Dritte weitergeben kann, sofern dies nicht gesetzlich vorgeschrieben ist. OpenAI verfügt zwar über eigene Nutzungsbedingungen, überträgt jedoch die Verantwortung für die entsprechenden Maßnahmen bei der Interaktion mit KI-Tools größtenteils den Nutzern.

Die Eigentümer von ChatGPT haben in ihrem Blog über ihren Ansatz für sichere KI berichtet. Das Unternehmen betont, dass es Daten nicht zum Verkauf von Dienstleistungen, zur Werbung oder zur Erstellung von Nutzerprofilen verwendet, sondern dass OpenAI Daten nutzt, um seine Modelle nützlicher zu machen. Beispielsweise werden Nutzergespräche zum Training von ChatGPT verwendet.

06DRHXAVI9Fvj02541vbBqy-1.webp

Die Datenschutzrichtlinie von ChatGPT gilt als recht vage.

Google, das Unternehmen hinter Bard AI, hat zusätzliche Datenschutzbestimmungen für seine KI-Nutzer erlassen. Das Unternehmen wählt einen kleinen Teil der Konversation aus und verwendet automatisierte Tools, um personenbezogene Daten zu entfernen. Dies trägt dazu bei, Bard zu verbessern und gleichzeitig die Privatsphäre der Nutzer zu schützen.

Die Beispielgespräche werden von menschlichen Trainern überprüft und bis zu drei Jahre lang unabhängig vom Google-Konto des Nutzers gespeichert. Google weist die Nutzer zudem darauf hin, in Gesprächen mit Bard AI keine persönlichen Daten über sich selbst oder andere preiszugeben. Der Tech-Riese betont, dass diese Gespräche nicht für Werbezwecke verwendet werden und kündigt künftig Änderungen an.

Bard AI ermöglicht es Nutzern, die Speicherung von Konversationen in ihren Google-Konten zu deaktivieren und Konversationen über einen Link zu überprüfen oder zu löschen. Darüber hinaus verfügt das Unternehmen über Sicherheitsvorkehrungen, die verhindern sollen, dass Bard persönliche Informationen in Antworten einfügt.

Steve Mills sagt, dass Benutzer und Entwickler die in neuen Technologien verborgenen Sicherheitsrisiken manchmal erst entdecken, wenn es zu spät ist. Beispielsweise können Autovervollständigungsfunktionen versehentlich die Sozialversicherungsnummern von Benutzern preisgeben.

Benutzer sollten in diese Tools nichts eingeben, was sie nicht mit anderen teilen möchten, sagte Herr Mills.


[Anzeige_2]
Quellenlink

Kommentar (0)

No data
No data
Soldaten marschieren durch die heiße Sonne auf dem Übungsgelände
Beobachten Sie Hubschrauberübungen am Himmel von Hanoi zur Vorbereitung auf den Nationalfeiertag am 2. September
U23 Vietnam holt strahlend den Pokal der Südostasiatischen U23-Meisterschaft nach Hause
Die nördlichen Inseln sind wie „rohe Edelsteine“, billige Meeresfrüchte, 10 Minuten mit dem Boot vom Festland entfernt
Die mächtige Formation von 5 SU-30MK2-Kampfflugzeugen bereitet sich auf die A80-Zeremonie vor
S-300PMU1-Raketen im Kampfeinsatz zum Schutz des Himmels über Hanoi
Die Lotusblütezeit lockt Touristen in die majestätischen Berge und Flüsse von Ninh Binh
Cu Lao Mai Nha: Wo Wildheit, Majestät und Frieden miteinander verschmelzen
Hanoi ist seltsam, bevor Sturm Wipha Land erreicht
Verloren in der wilden Welt im Vogelgarten in Ninh Binh

Erbe

Figur

Geschäft

No videos available

Nachricht

Politisches System

Lokal

Produkt