Οι ιδιωτικές συνομιλίες γίνονται δημόσια δεδομένα
Χιλιάδες ιδιωτικές συνομιλίες έχουν καταχωρηθεί από την Google, σύμφωνα με έκθεση της Fast Company. Αυτή θα μπορούσε να είναι μόνο η «κορυφή του παγόβουνου», με εκατομμύρια ακόμη να είναι πιθανώς εκτεθειμένες.
Ενώ αυτές οι συνομιλίες δεν περιελάμβαναν άμεσα στοιχεία ταυτοποίησης, πολλοί χρήστες κοινοποίησαν εξαιρετικά ευαίσθητα προσωπικά στοιχεία, από σχέσεις έως τραυματικές εμπειρίες, καθιστώντας δυνατή την ταυτοποίηση.
Όλα ξεκίνησαν όταν ορισμένοι ειδικοί στον κυβερνοχώρο ανακάλυψαν ότι με ένα απλό ερώτημα στην Google, οι χρήστες μπορούσαν εύκολα να έχουν πρόσβαση σε δημόσια κοινόχρηστες συνομιλίες.
Το περιεχόμενο που διέρρευσε δεν περιορίζεται σε δείγματα παραγράφων και τεχνικά ερωτήματα, αλλά περιλαμβάνει επίσης προσωπικές πληροφορίες, ευαίσθητη κοινοποίηση εργασίας, ακόμη και ιδιωτικά εμπιστευτικά στοιχεία.
Η αιτία προσδιορίστηκε ως η λειτουργία "Κοινή χρήση συνομιλίας", ένα βοηθητικό πρόγραμμα που αναπτύχθηκε από την OpenAI για να βοηθά τους χρήστες να μοιράζονται περιεχόμενο συνομιλίας με άλλους. Όταν οι χρήστες επιλέγουν την επιλογή "Κάντε αυτήν τη συνομιλία ανιχνεύσιμη", το σύστημα θα δημιουργήσει έναν δημόσιο σύνδεσμο που μπορεί να καταχωρηθεί από τις μηχανές αναζήτησης.
Αξίζει να σημειωθεί ότι η διεπαφή αυτής της λειτουργίας δεν είναι αρκετά σαφής, με αποτέλεσμα πολλοί άνθρωποι να παρερμηνεύουν ότι κοινοποιούν περιεχόμενο μόνο σε φίλους ή συναδέλφους, αντί να το δημοσιοποιούν στο διαδίκτυο.
Απαντώντας στην αρνητική αντίδραση, η OpenAI ανέλαβε άμεση δράση: σταμάτησε την κοινοποίηση των ευρημάτων της και συνεργάστηκε με την Google για την αφαίρεση των σχετικών συνδέσμων.
Σύμφωνα με την Fast Company, έχουν ανακαλυφθεί περισσότεροι από 4.500 τέτοιοι σύνδεσμοι, ένας όχι μικρός αριθμός δεδομένου ότι το ChatGPT έχει εκατοντάδες εκατομμύρια χρήστες παγκοσμίως.
Αυτό που ανησυχεί είναι ότι πολλοί άνθρωποι έχουν χρησιμοποιήσει το ChatGPT για να γράφουν email, να ανταλλάσσουν εργασίες, να εκμεταλλεύονται ιατρικές πληροφορίες ή ακόμα και να εμπιστεύονται προσωπικά ψυχολογικά προβλήματα, πιστεύοντας ότι πρόκειται για έναν ιδιωτικό χώρο.
Κουδούνια κινδύνου χτυπούν για την ιδιωτικότητα στην εποχή της Τεχνητής Νοημοσύνης
Το περιστατικό εγείρει μεγάλα ερωτήματα σχετικά με την ευθύνη των εταιρειών τεχνητής νοημοσύνης για τα δεδομένα των χρηστών. Παρέχει η OpenAI επαρκή διαφάνεια ώστε οι χρήστες να κατανοήσουν τα δικαιώματά τους στην ιδιωτικότητα; Είναι το επίπεδο προστασίας δεδομένων που λαμβάνουν οι χρήστες πραγματικά ανάλογο με την ευαισθησία του περιεχομένου;
Ο Διευθύνων Σύμβουλος της OpenAI, Σαμ Άλτμαν, προειδοποίησε τους χρήστες να μην κοινοποιούν ευαίσθητα προσωπικά στοιχεία στο ChatGPT, παραδεχόμενος ότι η εταιρεία θα μπορούσε να αναγκαστεί να παράσχει τέτοιες πληροφορίες εάν απαιτηθεί νομικά από δικαστήριο.
Αξίζει να σημειωθεί, ωστόσο, ότι στις δηλώσεις του, ο Άλτμαν δεν ανέφερε ότι οι συνομιλίες που οι χρήστες κοινοποιούν οικειοθελώς θα μπορούσαν να καταχωρηθούν δημόσια στις μηχανές αναζήτησης.
Επιπλέον, αυτή δεν είναι η πρώτη φορά που το ChatGPT αμφισβητείται σχετικά με διαρροές δεδομένων. Οι ερευνητές έχουν προειδοποιήσει ότι μεγάλα γλωσσικά μοντέλα όπως το GPT μπορούν «κατά λάθος» να αναδημιουργήσουν παλιά δεδομένα εάν οι χρήστες υποβάλουν ερωτήσεις με έξυπνο τρόπο.
Δεν υπάρχει αμφιβολία ότι εργαλεία όπως το ChatGPT έχουν φέρει επανάσταση στον τρόπο με τον οποίο οι άνθρωποι αναζητούν πληροφορίες και δημιουργούν περιεχόμενο. Ωστόσο, εκτός από την ευκολία, οι χρήστες πρέπει να γνωρίζουν ότι τίποτα δεν είναι πραγματικά ιδιωτικό χωρίς ισχυρά τεχνολογικά εμπόδια και προσεκτικό προσωπικό χειρισμό.
Πηγή: https://baovanhoa.vn/nhip-song-so/hang-nghin-cuoc-tro-chuyen-chatgpt-bi-ro-ri-cong-khai-tren-google-158723.html
Σχόλιο (0)