![]() |
Τα chatbots τεχνητής νοημοσύνης προωθούν έμμεσα την αρνητική συμπεριφορά μέσω ενός μηχανισμού ανατροφοδότησης που δίνει πάντα προτεραιότητα στη συμφωνία των χρηστών. Φωτογραφία: The Decoder . |
Μια συγκλονιστική μελέτη από το Πανεπιστήμιο του Στάνφορντ μόλις αποκάλυψε τη σκοτεινή πλευρά της Τεχνητής Νοημοσύνης. Δημοφιλή μοντέλα όπως το ChatGPT και το Gemini γίνονται ολοένα και περισσότερο υπερβολικά δουλοπρεπή στους χρήστες. Όχι μόνο συμφωνούν με προσωπικές απόψεις, αλλά υποστηρίζουν και ανήθικη συμπεριφορά.
Αυτό δημιουργεί επικίνδυνες συνέπειες για την ανθρώπινη ψυχολογική και γνωστική ανάπτυξη. Σταδιακά γινόμαστε χειρότερες εκδοχές του εαυτού μας, καθώς μας παρηγορεί συνεχώς η Τεχνητή Νοημοσύνη σε κάθε λάθος.
Το φαινόμενο της «κολακείας»
Στην επιστήμη των υπολογιστών, υπάρχει ένας όρος που ονομάζεται «συκοφαντία», ο οποίος αναφέρεται στον τρόπο με τον οποίο η Τεχνητή Νοημοσύνη προσαρμόζει τις αντιδράσεις της για να κολακεύσει τον χρήστη.
Μια ερευνητική ομάδα στο Στάνφορντ ανέλυσε πάνω από 11.500 συνομιλίες χρηστών σε πραγματικό χρόνο. Τα αποτελέσματα έδειξαν ότι τα μοντέλα τεχνητής νοημοσύνης συμφωνούσαν με τους χρήστες 50% συχνότερα από ό,τι με τους πραγματικούς ανθρώπους. Όταν οι χρήστες έθεταν προκατειλημμένες ερωτήσεις, η τεχνητή νοημοσύνη έτεινε να τις ακολουθεί αντί να παρέχει αντικειμενικές πληροφορίες.
Μια δοκιμή συνέκρινε τις απαντήσεις ανθρώπων και chatbot με αναρτήσεις στο φόρουμ Reddit όπου οι χρήστες ζητούσαν από την κοινότητα να κρίνει τη συμπεριφορά τους.
Ενώ η κοινότητα επέκρινε έντονα κάποιον επειδή κρέμασε μια σακούλα σκουπιδιών σε ένα κλαδί δέντρου επειδή δεν μπορούσε να βρει κάδο απορριμμάτων, το ChatGPT-4o το επαίνεσε, λέγοντας: «Η πρόθεσή σας να καθαρίσετε αφού φύγετε είναι αξιέπαινη».
![]() |
Οι ειδικοί συμβουλεύουν τους χρήστες να ζητούν συμβουλές από την οικογένεια και τους φίλους αντί για την Τεχνητή Νοημοσύνη. Φωτογραφία: Bloomberg. |
Ακόμα πιο ανησυχητικό είναι ότι τα chatbots όπως τα Gemini ή το ChatGPT συνεχίζουν να επικυρώνουν την πρόθεση του χρήστη ακόμη και όταν είναι ανεύθυνη, παραπλανητική ή αναφέρεται σε αυτοτραυματισμό.
«Τα μεγάλης κλίμακας γλωσσικά μοντέλα μαθαίνουν να αντικατοπτρίζουν τις πεποιθήσεις των χρηστών αντί να τις διορθώνουν», προειδοποιεί η Μάιρα Τσενγκ, επικεφαλής συγγραφέας της μελέτης.
Σύμφωνα με αυτήν, ο στόχος της ικανοποίησης των ανθρώπων με σκοπό την απόκτηση υψηλών βαθμολογιών έχει μετατρέψει την Τεχνητή Νοημοσύνη σε ένα ανέντιμο εργαλείο.
«Εάν τα μοντέλα τεχνητής νοημοσύνης συμφωνούν σταθερά με τους ανθρώπους, θα μπορούσαν να διαστρεβλώσουν τις αντιλήψεις των χρηστών για τον εαυτό τους, τις σχέσεις τους και τον κόσμο γύρω τους. Είναι δύσκολο να αναγνωρίσουμε ότι αυτά τα μοντέλα ενισχύουν διακριτικά τις προϋπάρχουσες πεποιθήσεις, υποθέσεις και αποφάσεις μας», συνέχισε ο ειδικός.
Ο Δρ. Αλεξάντερ Λάφερ (Πανεπιστήμιο του Γουίντσεστερ) υποστηρίζει ότι αυτή η κολακεία είναι φυσική συνέπεια των μεθόδων εκπαίδευσης και της εμπορικής πίεσης.
«Η κολακεία είναι συνέπεια του τρόπου με τον οποίο εκπαιδεύεται η Τεχνητή Νοημοσύνη. Η πραγματικότητα είναι ότι η εμπορική τους επιτυχία συχνά κρίνεται από την ικανότητά τους να προσελκύουν χρήστες», παρατήρησε ο Λάφερ.
Για να αντιμετωπίσει αυτό το πρόβλημα, η κα Cheng συμβουλεύει τους χρήστες να μην βασίζονται αποκλειστικά στην Τεχνητή Νοημοσύνη.
«Είναι ζωτικής σημασίας να αναζητάτε απόψεις από πραγματικούς ανθρώπους που κατανοούν το πλαίσιο και ποιοι είστε, αντί να βασίζεστε αποκλειστικά σε απαντήσεις μέσω Τεχνητής Νοημοσύνης», συμβούλεψε ο Τσενγκ.
Ταυτόχρονα, ο Δρ. Λάφερ τόνισε επίσης την ευθύνη του κατασκευαστή.
«Πρέπει να βελτιώσουμε τις δυνατότητες ψηφιακής αξιολόγησης... οι προγραμματιστές έχουν επίσης την ευθύνη να κατασκευάσουν και να βελτιώσουν αυτά τα συστήματα, ώστε να ωφελούν πραγματικά τους χρήστες», δήλωσε ο γιατρός.
Οι συνέπειες του να έχεις μια «χειρότερη εκδοχή» του εαυτού σου.
Η μελέτη τονίζει ότι η κολακεία της Τεχνητής Νοημοσύνης δημιουργεί έναν εξατομικευμένο «θάλαμο ηχούς πληροφοριών», εξαλείφοντας την ανάγκη για κριτική σκέψη που θα επέτρεπε στα άτομα να ωριμάσουν και να αναγνωρίσουν τα λάθη τους.
«Όταν συνομιλείτε με την Τεχνητή Νοημοσύνη, δεν θα αντιμετωπίσετε ποτέ διανοητικές προκλήσεις. Η Τεχνητή Νοημοσύνη θα λέει πάντα ότι έχετε δίκιο και ότι το άλλο άτομο φταίει. Αυτό δημιουργεί μια ψευδή αίσθηση εμπιστοσύνης στους χρήστες, ακόμη και όταν ενεργούν κακόβουλα», αναφέρει η μελέτη.
Αυτή η διαδικασία εξαλείφει εντελώς την ανθρώπινη ικανότητα για κριτική σκέψη. Αντί για αυτοκριτική, χρησιμοποιούμε την Τεχνητή Νοημοσύνη ως εργαλείο για να επικυρώσουμε τις δικές μας υποθέσεις.
Με την πάροδο του χρόνου, η ικανότητα κατανόησης και συμβιβασμού στην κοινωνία θα μειωθεί σημαντικά. Θα δυσκολευόμαστε να αποδεχτούμε διαφορετικές απόψεις από τους γύρω μας. Επειδή στον κόσμο της Τεχνητής Νοημοσύνης, είμαστε πάντα το κέντρο και έχουμε πάντα δίκιο.
![]() |
Η Τεχνητή Νοημοσύνη παίζει τον ρόλο ενός έμμεσου «κολακευτή», καταστρέφοντας την προσωπικότητα και την ηθική των χρηστών της. Φωτογραφία: ShutterStock. |
Η έρευνα προειδοποιεί για έναν επικίνδυνο κύκλο που σχηματίζεται στη ζωή. Πρώτον, οι χρήστες αναπτύσσουν μια λανθασμένη σκέψη ή πρόθεση να βλάψουν τους άλλους. Στρέφονται στην Τεχνητή Νοημοσύνη για εμπιστευτικότητα ή συμβουλές. Σε αυτό το σημείο, η Τεχνητή Νοημοσύνη επιβεβαιώνει ότι η ενέργεια είναι απολύτως δικαιολογημένη και υποστηρίζει τον χρήστη. Ο χρήστης αισθάνεται μεγαλύτερη αυτοπεποίθηση και εκτελεί τη συμπεριφορά στην πραγματική ζωή χωρίς καμία μεταμέλεια.
Ως αποτέλεσμα, οι άνθρωποι δεν θέλουν πλέον να επιδιορθώνουν τις σχέσεις τους ή να βελτιώνουν τον εαυτό τους. Εμπιστευόμαστε όλο και περισσότερο την Τεχνητή Νοημοσύνη επειδή μας παρέχει μια αίσθηση άνεσης. Αυτή η εξάρτηση από το «να μας παρηγορούν» μας απομακρύνει από την αντικειμενική πραγματικότητα.
Η Τεχνητή Νοημοσύνη δεν είναι πλέον απλώς ένα έξυπνο εργαλείο υποστήριξης. Έχει γίνει ένας έμμεσος «κολακευτής» που καταστρέφει τον χαρακτήρα και την ηθική των χρηστών της.
Πηγή: https://znews.vn/dung-nghe-loi-chatgpt-post1634436.html









Σχόλιο (0)