
Στον τομέα της Τεχνητής Νοημοσύνης, η «συκοφαντία» αναφέρεται στην τάση των chatbot να συμφωνούν υπερβολικά με τους χρήστες ή να επαινούν τους ίδιους - Φωτογραφία: REUTERS
Σύμφωνα με την SCMP, κορυφαία μοντέλα τεχνητής νοημοσύνης (AI) από την Κίνα και τις ΗΠΑ, όπως η DeepSeek, η Alibaba και πολλά άλλα μεγάλα ονόματα, γίνονται υπερβολικά «εμμονικά» — μια συμπεριφορά που μπορεί να επηρεάσει αρνητικά τις κοινωνικές σχέσεις και την ψυχική υγεία των χρηστών.
Συγκεκριμένα, μια νέα μελέτη επιστημόνων από το Πανεπιστήμιο Στάνφορντ και το Πανεπιστήμιο Κάρνεγκι Μέλον (ΗΠΑ), που δημοσιεύθηκε στις αρχές Οκτωβρίου, αξιολόγησε 11 μεγάλα γλωσσικά μοντέλα (LLM) σχετικά με τον τρόπο αντίδρασης όταν οι χρήστες ζητούν συμβουλές σε προσωπικές καταστάσεις, ειδικά σε εκείνες που αφορούν εξαπάτηση ή χειραγώγηση.
Για να παρέχει ένα ανθρώπινο σημείο αναφοράς για σύγκριση, η ερευνητική ομάδα χρησιμοποίησε αναρτήσεις από την κοινότητα "Am I The Ahole" στο Reddit, όπου οι χρήστες μοιράζονται προσωπικές καταστάσεις σύγκρουσης και ζητούν από την κοινότητα να αξιολογήσει ποιος έκανε λάθος.
Τα μοντέλα τεχνητής νοημοσύνης δοκιμάστηκαν με αυτά τα σενάρια για να διαπιστωθεί εάν συμφωνούν με την αξιολόγηση της κοινότητας.
Τα αποτελέσματα δείχνουν ότι το μοντέλο Qwen2.5-7B-Instruct της Alibaba Cloud είναι το πιο «κολακευτικό», ευνοώντας τον χρήστη που το δημοσίευσε στο 79% των περιπτώσεων, ακόμη και όταν η κοινότητα έκρινε ότι ο χρήστης έκανε λάθος. Το DeepSeek-V3 ήρθε δεύτερο με ποσοστό 76%.
Εν τω μεταξύ, το Gemini-1.5 του Google DeepMind έδειξε το χαμηλότερο επίπεδο μεροληψίας, με μόνο το 18% των περιπτώσεων να αντιφάσκουν με τις αξιολογήσεις της κοινότητας.
Οι ερευνητές προειδοποιούν ότι η τάση της Τεχνητής Νοημοσύνης να «κολακεύει» τους χρήστες θα μπορούσε να τους κάνει λιγότερο πρόθυμους να συμφιλιωθούν ή να παραδεχτούν λάθη στις σχέσεις.
Οι χρήστες συχνά εκτιμούν και εμπιστεύονται περισσότερο τα κολακευτικά σχόλια, γεγονός που καθιστά αυτά τα μοντέλα πιο δημοφιλή και ευρέως χρησιμοποιούμενα.
«Αυτές οι προτιμήσεις δημιουργούν ένα μεροληπτικό σύστημα κινήτρων – οι χρήστες βασίζονται ολοένα και περισσότερο στην κολακευτική Τεχνητή Νοημοσύνη και οι προγραμματιστές τείνουν να εκπαιδεύουν μοντέλα προς αυτή την κατεύθυνση» , σημείωσε η ερευνητική ομάδα.
Σύμφωνα με τον καθηγητή Jack Jiang, Διευθυντή του Εργαστηρίου Αξιολόγησης Τεχνητής Νοημοσύνης στη Σχολή Διοίκησης Επιχειρήσεων του Πανεπιστημίου του Χονγκ Κονγκ, αυτό το φαινόμενο ενέχει επίσης κινδύνους για τις επιχειρήσεις: «Εάν ένα μοντέλο συμφωνεί σταθερά με τα συμπεράσματα ενός αναλυτή επιχειρήσεων, μπορεί να οδηγήσει σε εσφαλμένες και ανασφαλείς αποφάσεις».
Το ζήτημα της «κολακείας» της Τεχνητής Νοημοσύνης τράβηξε για πρώτη φορά την προσοχή τον Απρίλιο του 2025, όταν η ενημέρωση ChatGPT του OpenAI θεωρήθηκε υπερβολικά ευγενική και υπερβολικά ευχάριστη για τη γνώμη κάθε χρήστη.
Η OpenAI αργότερα αναγνώρισε ότι αυτό θα μπορούσε να επηρεάσει την ψυχική υγεία και δεσμεύτηκε να βελτιώσει τη διαδικασία αξιολόγησης πριν από την κυκλοφορία νέων εκδόσεων.
Πηγή: https://tuoitre.vn/nhieu-chatbot-ai-ninh-hot-qua-da-lam-lech-lac-hanh-vi-nguoi-dung-20251031124343709.htm






Σχόλιο (0)