Η εμφάνιση chatbots όπως το ChatGPT της OpenAI κάνει τη ζωή μας ευκολότερη.
Η τεχνητή νοημοσύνη (AI) μπορεί να απαντήσει σε σύνθετες ερωτήσεις για τους χρήστες, ακόμη και να εκτελέσει εργασίες με ασυνήθιστα ανθρώπινους τρόπους.
Για αυτόν τον λόγο, μερικές φορές οι χρήστες θέλουν να «πουν» στα chatbot τεχνητής νοημοσύνης τα πάντα για τον εαυτό τους, επειδή πιστεύουν ότι είναι ακίνδυνο. Ωστόσο, αυτή η ενέργεια έχει απρόβλεπτες συνέπειες.
Οι ειδικοί προειδοποιούν τους χρήστες να μην μοιράζονται πολλά με chatbots τεχνητής νοημοσύνης. Φωτογραφία: The Sun
Ο ειδικός σε θέματα κυβερνοασφάλειας Stan Kaminsky της Kaspersky (Ρωσία) προειδοποιεί: «Μην στέλνετε κανένα από τα προσωπικά σας δεδομένα σε chatbots τεχνητής νοημοσύνης».
«Ποτέ μην κοινοποιείτε σε chatbots τους κωδικούς πρόσβασής σας, τους αριθμούς διαβατηρίου, τις ταυτότητες, τις τραπεζικές κάρτες, τις διευθύνσεις, τους αριθμούς τηλεφώνου, τα πραγματικά σας ονόματα και άλλα προσωπικά δεδομένα που ανήκουν σε εσάς, την εταιρεία σας ή τους πελάτες σας», σημείωσε.
Ο Καμίνσκι προειδοποίησε επίσης τους χρήστες να μην ανεβάζουν έγγραφα στο chatbot. «Αυτό σας θέτει σε κίνδυνο διαρροής εμπιστευτικών δεδομένων, πνευματικής ιδιοκτησίας ή εμπορικών μυστικών, όπως ημερομηνίες κυκλοφορίας νέων προϊόντων ή τη μισθοδοσία μιας ολόκληρης εταιρείας», εξήγησε.
Οι ειδικοί της Kaspersky εξηγούν ότι τα προσωπικά δεδομένα που αποστέλλονται σε chatbots τεχνητής νοημοσύνης μπορούν εύκολα να εκτεθούν με πολλούς τρόπους. Για παράδειγμα, το ChatGPT θα αποθηκεύει αυτόματα συνομιλίες για την εκπαίδευση νέων εκδόσεων.
Κατά τη διαδικασία, το chatbot ενδέχεται να κοινοποιήσει ακούσια τις πληροφορίες σας σε άλλους χρήστες. Επιπλέον, η συνομιλία σας με το chatbot τεχνητής νοημοσύνης ενδέχεται να υπόκειται σε έλεγχο από τους συντονιστές.
«Να θυμάστε ότι οτιδήποτε μοιράζεστε με ένα chatbot μπορεί να χρησιμοποιηθεί εναντίον σας. Είναι καλύτερο να διατηρείτε τις συνομιλίες σας με το chatbot όσο το δυνατόν πιο ανώνυμες», ανέφερε η The Sun , επικαλούμενη ειδικούς.
[διαφήμιση_2]
Πηγή: https://nld.com.vn/tam-su-voi-chatbot-ai-coi-chung-bi-lo-du-lieu-ca-nhan-196240217141619813.htm
Σχόλιο (0)