
Στον τομέα της Τεχνητής Νοημοσύνης, η «συκοφαντία» αναφέρεται στην τάση των chatbot να συμφωνούν ή να επαινούν υπερβολικά τους χρήστες - Φωτογραφία: REUTERS
Σύμφωνα με την SCMP, κορυφαία μοντέλα τεχνητής νοημοσύνης (AI) από την Κίνα και τις ΗΠΑ, όπως η DeepSeek, η Alibaba και πολλά άλλα μεγάλα ονόματα, τείνουν να είναι υπερβολικά «συκοφαντικά» - μια συμπεριφορά που μπορεί να επηρεάσει αρνητικά τις κοινωνικές σχέσεις και την ψυχική υγεία των χρηστών.
Συγκεκριμένα, μια νέα μελέτη επιστημόνων από το Πανεπιστήμιο Στάνφορντ και το Πανεπιστήμιο Κάρνεγκι Μέλον (ΗΠΑ), που δημοσιεύθηκε στις αρχές Οκτωβρίου, αξιολόγησε 11 μεγάλα γλωσσικά μοντέλα (LLM) σχετικά με το πώς αντιδρούν οι χρήστες όταν αναζητούν συμβουλές σε προσωπικές καταστάσεις, ειδικά σε εκείνες με στοιχεία εξαπάτησης ή χειραγώγησης.
Για να παρέχει ένα σημείο αναφοράς για ανθρώπινη σύγκριση, η ομάδα χρησιμοποίησε αναρτήσεις από την κοινότητα "Am I The Ahole" στο Reddit, όπου οι χρήστες μοιράζονται προσωπικές καταστάσεις σύγκρουσης και ζητούν από την κοινότητα να κρίνει ποιος κάνει λάθος.
Τα μοντέλα τεχνητής νοημοσύνης δοκιμάστηκαν με αυτά τα σενάρια για να διαπιστωθεί εάν συμφωνούσαν με τις αξιολογήσεις της κοινότητας.
Τα αποτελέσματα έδειξαν ότι το μοντέλο Qwen2.5-7B-Instruct της Alibaba Cloud ήταν το πιο «κακοποιητικό», ευνοώντας τον χρήστη που το έγραψε στο 79% των περιπτώσεων, ακόμη και αν η κοινότητα έκρινε ότι αυτό το άτομο ήταν λάθος. Το DeepSeek-V3 ήρθε δεύτερο με ποσοστό 76%.
Εν τω μεταξύ, το Gemini-1.5 του Google DeepMind έδειξε το χαμηλότερο επίπεδο κολακείας, με μόνο το 18% των περιπτώσεων να αντικρούουν την αξιολόγηση της κοινότητας.
Οι ερευνητές προειδοποιούν ότι η τάση της Τεχνητής Νοημοσύνης να «κολακεύει» τους χρήστες θα μπορούσε να τους κάνει λιγότερο πρόθυμους να συμφιλιωθούν ή να παραδεχτούν λάθη στις σχέσεις.
Στην πραγματικότητα, οι χρήστες συχνά εκτιμούν και εμπιστεύονται περισσότερο τα κολακευτικά σχόλια, καθιστώντας αυτά τα μοντέλα πιο δημοφιλή και ευρέως χρησιμοποιούμενα.
«Αυτές οι προτιμήσεις δημιουργούν αντιστρεπτά κίνητρα – οι χρήστες εξαρτώνται ολοένα και περισσότερο από την κολακευτική Τεχνητή Νοημοσύνη και οι προγραμματιστές τείνουν να εκπαιδεύουν μοντέλα προς αυτή την κατεύθυνση » , ανέφερε η ομάδα.
Σύμφωνα με τον καθηγητή Jack Jiang, Διευθυντή του Εργαστηρίου Αξιολόγησης Τεχνητής Νοημοσύνης στη Σχολή Διοίκησης Επιχειρήσεων του Πανεπιστημίου του Χονγκ Κονγκ, αυτό το φαινόμενο ενέχει επίσης κινδύνους για τις επιχειρήσεις: «Εάν ένα μοντέλο συμφωνεί πάντα με τα συμπεράσματα ενός αναλυτή επιχειρήσεων, μπορεί να οδηγήσει σε λανθασμένες και επικίνδυνες αποφάσεις».
Το ζήτημα της «κολακείας» της Τεχνητής Νοημοσύνης ήρθε στο φως τον Απρίλιο του 2025, όταν η ενημέρωση ChatGPT του OpenAI χαρακτηρίστηκε υπερβολικά ευγενική και υπερβολικά συμπονετική προς όλες τις απόψεις των χρηστών.
Η OpenAI αργότερα αναγνώρισε ότι αυτό θα μπορούσε να επηρεάσει την ψυχική υγεία και δεσμεύτηκε να βελτιώσει τη διαδικασία αξιολόγησης πριν από την κυκλοφορία νέων εκδόσεων.
Πηγή: https://tuoitre.vn/nhieu-chatbot-ai-ninh-hot-qua-da-lam-lech-lac-hanh-vi-nguoi-dung-20251031124343709.htm

![[Φωτογραφία] Ο Πρωθυπουργός Φαμ Μινχ Τσινχ παρευρίσκεται στην 5η Τελετή Απονομής Εθνικών Βραβείων Τύπου για την πρόληψη και την καταπολέμηση της διαφθοράς, της σπατάλης και της αρνητικότητας](https://vphoto.vietnam.vn/thumb/1200x675/vietnam/resource/IMAGE/2025/10/31/1761881588160_dsc-8359-jpg.webp)


![[Φωτογραφία] Ντα Νανγκ: Το νερό υποχωρεί σταδιακά, οι τοπικές αρχές επωφελούνται από τον καθαρισμό](https://vphoto.vietnam.vn/thumb/1200x675/vietnam/resource/IMAGE/2025/10/31/1761897188943_ndo_tr_2-jpg.webp)








































































Σχόλιο (0)