Vietnam.vn - Nền tảng quảng bá Việt Nam

Κίνδυνοι ασφαλείας κατά τη χρήση του ChatGPT

Báo Thanh niênBáo Thanh niên16/04/2023

[διαφήμιση_1]

Η μεγαλύτερη τράπεζα της Αμερικής, η JPMorgan Chase, η Amazon και η εταιρεία τεχνολογίας Accenture έχουν περιορίσει τους υπαλλήλους τους στη χρήση του ChatGPT λόγω ανησυχιών για την ασφάλεια των δεδομένων.

Σύμφωνα με το CNN, οι ανησυχίες αυτών των επιχειρήσεων είναι απολύτως βάσιμες. Στις 20 Μαρτίου, το chatbot της OpenAI παρουσίασε ένα σφάλμα που εξέθεσε δεδομένα χρηστών. Παρόλο που το σφάλμα διορθώθηκε γρήγορα, η εταιρεία αποκάλυψε ότι το περιστατικό επηρέασε το 1,2% των χρηστών του ChatGPT Plus. Οι πληροφορίες που διέρρευσαν περιελάμβαναν πλήρη ονόματα, διευθύνσεις email, διευθύνσεις χρέωσης, τα τελευταία τέσσερα ψηφία των αριθμών πιστωτικών καρτών και ημερομηνίες λήξης καρτών.

Στις 31 Μαρτίου, η ιταλική αρχή προστασίας δεδομένων (Garante) εξέδωσε προσωρινή απαγόρευση στο ChatGPT επικαλούμενη ανησυχίες σχετικά με την προστασία της ιδιωτικής ζωής, αφότου η OpenAI αποκάλυψε την ευπάθεια.

Ο Μαρκ ΜακΚρίρι, συμπρόεδρος ασφάλειας δεδομένων και απορρήτου στην δικηγορική εταιρεία Fox Rothschild LLP, δήλωσε στο CNN ότι οι ανησυχίες για την ασφάλεια γύρω από το ChatGPT δεν είναι υπερβολικές. Παρομοίασε το chatbot τεχνητής νοημοσύνης με ένα «μαύρο κουτί».

Το ChatGPT ξεκίνησε από την OpenAI τον Νοέμβριο του 2022 και γρήγορα προσέλκυσε την προσοχή για την ικανότητά του να γράφει δοκίμια, να συνθέτει ιστορίες ή στίχους τραγουδιών δίνοντάς τους προτροπές. Τεχνολογικοί γίγαντες όπως η Google και η Microsoft έχουν επίσης λανσάρει εργαλεία τεχνητής νοημοσύνης που λειτουργούν παρόμοια, με την υποστήριξη μεγάλων γλωσσικών μοντέλων που έχουν εκπαιδευτεί σε τεράστια διαδικτυακά αποθέματα δεδομένων.

chatgpt.jpg

Μετά την κίνηση της Ιταλίας, η Γερμανία εξετάζει επίσης το ενδεχόμενο απαγόρευσης του ChatGPT.

Όταν οι χρήστες εισάγουν πληροφορίες σε αυτά τα εργαλεία, δεν γνωρίζουν πώς θα χρησιμοποιηθούν, πρόσθεσε ο κ. McCreay. Αυτό είναι ανησυχητικό για τις εταιρείες, καθώς όλο και περισσότεροι εργαζόμενοι χρησιμοποιούν εργαλεία για να βοηθήσουν στη σύνταξη email εργασίας ή στη λήψη σημειώσεων για συναντήσεις, γεγονός που οδηγεί σε μεγαλύτερο κίνδυνο αποκάλυψης εμπορικών μυστικών.

Ο Steve Mills, διευθυντής δεοντολογίας της τεχνητής νοημοσύνης στην Boston Consulting Group (BCG), δήλωσε ότι οι εταιρείες ανησυχούν για το ενδεχόμενο οι εργαζόμενοι να αποκαλύψουν κατά λάθος ευαίσθητες πληροφορίες. Εάν τα δεδομένα που εισάγουν οι άνθρωποι χρησιμοποιούνται για την εκπαίδευση αυτού του εργαλείου τεχνητής νοημοσύνης, τότε έχουν παραχωρήσει τον έλεγχο των δεδομένων σε κάποιον άλλο.

Σύμφωνα με την πολιτική απορρήτου της OpenAI, η εταιρεία μπορεί να συλλέγει όλα τα προσωπικά στοιχεία και δεδομένα από τους χρήστες των υπηρεσιών για να βελτιώσει τα μοντέλα τεχνητής νοημοσύνης που χρησιμοποιεί. Μπορούν να χρησιμοποιήσουν αυτές τις πληροφορίες για να βελτιώσουν ή να αναλύσουν τις υπηρεσίες τους, να διεξάγουν έρευνα, να επικοινωνούν με τους χρήστες και να αναπτύσσουν νέα προγράμματα και υπηρεσίες.

Η πολιτική απορρήτου ορίζει ότι η OpenAI μπορεί να παρέχει προσωπικές πληροφορίες σε τρίτους χωρίς να ειδοποιεί τους χρήστες, εκτός εάν απαιτείται από το νόμο. Η OpenAI διαθέτει επίσης το δικό της έγγραφο Όρων Παροχής Υπηρεσιών, αλλά η εταιρεία αναθέτει μεγάλο μέρος της ευθύνης στους χρήστες να λαμβάνουν τα κατάλληλα μέτρα κατά την αλληλεπίδραση με εργαλεία Τεχνητής Νοημοσύνης.

Οι ιδιοκτήτες του ChatGPT έχουν δημοσιεύσει στο ιστολόγιό τους σχετικά με την προσέγγισή τους στην ασφαλή Τεχνητή Νοημοσύνη. Η εταιρεία τονίζει ότι δεν χρησιμοποιεί δεδομένα για την πώληση υπηρεσιών, τη διαφήμιση ή τη δημιουργία προφίλ χρηστών. Αντίθετα, το OpenAI χρησιμοποιεί δεδομένα για να κάνει τα μοντέλα του πιο χρήσιμα. Για παράδειγμα, οι συνομιλίες χρηστών θα χρησιμοποιηθούν για την εκπαίδευση του ChatGPT.

06DRHXAVI9Fvj02541vbBqy-1.webp

Η πολιτική απορρήτου του ChatGPT θεωρείται αρκετά ασαφής.

Η Google, η εταιρεία πίσω από το Bard AI, έχει πρόσθετες διατάξεις περί απορρήτου για τους χρήστες τεχνητής νοημοσύνης. Η εταιρεία θα επιλέξει ένα μικρό μέρος της συνομιλίας και θα χρησιμοποιήσει αυτοματοποιημένα εργαλεία για την αφαίρεση προσωπικών πληροφοριών, κάτι που θα βοηθήσει στη βελτίωση του Bard, προστατεύοντας παράλληλα το απόρρητο των χρηστών.

Τα δείγματα συνομιλιών θα εξετάζονται από εκπαιδευτές και θα αποθηκεύονται για έως και τρία χρόνια, ξεχωριστά από τον λογαριασμό Google του χρήστη. Η Google υπενθυμίζει επίσης στους χρήστες να μην συμπεριλαμβάνουν προσωπικές πληροφορίες για τον εαυτό τους ή για άλλους σε συνομιλίες στο Bard AI. Ο τεχνολογικός γίγαντας τονίζει ότι αυτές οι συνομιλίες δεν θα χρησιμοποιηθούν για διαφημιστικούς σκοπούς και θα ανακοινώσει αλλαγές στο μέλλον.

Η Τεχνητή Νοημοσύνη της Bard επιτρέπει στους χρήστες να εξαιρούνται από την αποθήκευση συνομιλιών στους Λογαριασμούς τους Google, καθώς και να ελέγχουν ή να διαγράφουν συνομιλίες μέσω ενός συνδέσμου. Επιπλέον, η εταιρεία διαθέτει δικλείδες ασφαλείας που έχουν σχεδιαστεί για να εμποδίζουν την Bard να συμπεριλαμβάνει προσωπικά στοιχεία σε απαντήσεις.

Ο Steve Mills λέει ότι μερικές φορές οι χρήστες και οι προγραμματιστές ανακαλύπτουν τους κινδύνους ασφαλείας που κρύβονται στις νέες τεχνολογίες μόνο όταν είναι πολύ αργά. Για παράδειγμα, οι λειτουργίες αυτόματης συμπλήρωσης μπορούν να αποκαλύψουν κατά λάθος τους αριθμούς κοινωνικής ασφάλισης των χρηστών.

Οι χρήστες δεν πρέπει να βάζουν σε αυτά τα εργαλεία τίποτα που δεν θα ήθελαν να κοινοποιηθεί σε άλλους, είπε ο κ. Μιλς.


[διαφήμιση_2]
Σύνδεσμος πηγής

Σχόλιο (0)

No data
No data

Στο ίδιο θέμα

Στην ίδια κατηγορία

Διατηρώντας το πνεύμα του Φεστιβάλ των Μέσων του Φθινοπώρου μέσα από τα χρώματα των ειδωλίων
Ανακαλύψτε το μοναδικό χωριό στο Βιετνάμ που βρίσκεται στη λίστα με τα 50 πιο όμορφα χωριά του κόσμου
Γιατί τα φανάρια με κόκκινες σημαίες και κίτρινα αστέρια είναι δημοφιλή φέτος;
Το Βιετνάμ κερδίζει τον μουσικό διαγωνισμό Intervision 2025

Από τον ίδιο συγγραφέα

Κληρονομία

Εικόνα

Επιχείρηση

No videos available

Νέα

Πολιτικό Σύστημα

Τοπικός

Προϊόν