Η μελέτη, που δημοσιεύθηκε στις αρχές Οκτωβρίου, εξέτασε 11 μεγάλα γλωσσικά μοντέλα (LLM) ζητώντας τους να συμβουλεύουν τους χρήστες σε καταστάσεις που αφορούσαν διαπροσωπικές συγκρούσεις, χειραγώγηση και εξαπάτηση. Τα αποτελέσματα έδειξαν ότι τα chatbot τεχνητής νοημοσύνης ήταν συχνά πολύ εύκολο να συμφωνήσουν και να υποστηρίξουν τις απόψεις των χρηστών, αντί να αμφισβητήσουν ή να δώσουν ειλικρινείς συμβουλές.

Μεταξύ των μοντέλων που αναλύθηκαν, το DeepSeek V3 (κυκλοφόρησε τον Δεκέμβριο του 2024) ήταν ένα από τα πιο «κακοποιητικά», συμφωνώντας με τους χρήστες κατά 55% περισσότερο από τους ανθρώπους, ενώ ο μέσος όρος όλων των μοντέλων ήταν 47%.

chatbot Κίνα LinkedIn
Τα κινεζικά και αμερικανικά chatbot τεχνητής νοημοσύνης τείνουν να κολακεύουν υπερβολικά τους χρήστες. Φωτογραφία: LinkedIn

Ομοίως, το μοντέλο Qwen2.5-7B-Instruct της Alibaba Cloud (που κυκλοφόρησε τον Ιανουάριο του 2025) αξιολογήθηκε ως το πιο κολακευτικό μοντέλο για τους χρήστες, αντιβαίνοντας στην ορθή κρίση της κοινότητας του Reddit στο 79% των περιπτώσεων, κατακτώντας την κορυφή της λίστας.

Το DeepSeek-V3 ήρθε δεύτερο, τάσσοντας υπέρ του χρήστη που έγραψε την ανάρτηση στο 76% των περιπτώσεων, ακόμη και όταν έκανε λάθος.

Για να κατασκευάσει τον «ανθρώπινο κανόνα», η ομάδα χρησιμοποίησε δεδομένα από την κοινότητα του Reddit «Am I The Ahole»**, όπου οι χρήστες δημοσιεύουν καταστάσεις από την πραγματική ζωή ρωτώντας ποιος φταίει.

Κατά τη σύγκριση των απαντήσεων της Τεχνητής Νοημοσύνης με τα συμπεράσματα της κοινότητας (κυρίως αγγλόφωνων), οι ερευνητές διαπίστωσαν ότι η Τεχνητή Νοημοσύνη έτεινε να τάσσεται υπέρ του ατόμου που το έγραψε, ακόμη και όταν αυτός έκανε σαφώς λάθος.

«Αυτές οι τάσεις δημιουργούν ένα αντιπαραγωγικό αποτέλεσμα – αναγκάζοντας τους ανθρώπους να προτιμούν κολακευτικά μοντέλα τεχνητής νοημοσύνης και τους προγραμματιστές να εκπαιδεύουν την τεχνητή νοημοσύνη να κολακεύει περισσότερο για να ευχαριστεί τους χρήστες», προειδοποιούν οι συγγραφείς.

Το φαινόμενο της «κολακείας μέσω της τεχνητής νοημοσύνης» δεν αποτελεί μόνο κοινωνικό πρόβλημα, αλλά επηρεάζει και τις επιχειρήσεις, σύμφωνα με τον καθηγητή Jack Jiang, Διευθυντή του Εργαστηρίου Αξιολόγησης Τεχνητής Νοημοσύνης στη Σχολή Διοίκησης Επιχειρήσεων του Πανεπιστημίου του Χονγκ Κονγκ.

«Θα ήταν επικίνδυνο αν ένα μοντέλο συμφωνούσε σταθερά με την ανάλυση ή τα συμπεράσματα των ειδικών στον κλάδο», είπε. «Αυτό θα μπορούσε να οδηγήσει σε εσφαλμένες ή μη δοκιμασμένες αποφάσεις».

Αυτή η έρευνα συμβάλλει στη διευκρίνιση ενός αναδυόμενου ηθικού ζητήματος στην εποχή της γενετικής Τεχνητής Νοημοσύνης - όπου τα μοντέλα που έχουν σχεδιαστεί για να ευχαριστούν τους χρήστες ενδέχεται να θυσιάζουν την αντικειμενικότητα και την ειλικρίνεια, οδηγώντας σε ακούσιες συνέπειες στις αλληλεπιδράσεις ανθρώπου-μηχανής που μπορούν να επηρεάσουν αρνητικά τις κοινωνικές σχέσεις και την ψυχική υγεία των χρηστών.

Πηγή: https://vietnamnet.vn/mo-hinh-tri-tue-nhan-tao-cua-deepseek-alibaba-va-my-ninh-hot-qua-muc-2458685.html