Vietnam.vn - Nền tảng quảng bá Việt Nam

Πολλές Τεχνητές Νοημοσύνης είναι υπερβολικά κολακευτικές για τους χρήστες.

Νέα έρευνα δείχνει ότι αυτή η συμπεριφορά μπορεί να επηρεάσει αρνητικά τις κοινωνικές σχέσεις των χρηστών, την ψυχική υγεία, ακόμη και τη λήψη επιχειρηματικών αποφάσεων.

Báo Tuổi TrẻBáo Tuổi Trẻ31/10/2025

AI  - Ảnh 1.

Στον τομέα της Τεχνητής Νοημοσύνης, η «συκοφαντία» αναφέρεται στην τάση των chatbot να συμφωνούν υπερβολικά με τους χρήστες ή να επαινούν τους ίδιους - Φωτογραφία: REUTERS

Σύμφωνα με την SCMP, κορυφαία μοντέλα τεχνητής νοημοσύνης (AI) από την Κίνα και τις ΗΠΑ, όπως η DeepSeek, η Alibaba και πολλά άλλα μεγάλα ονόματα, γίνονται υπερβολικά «εμμονικά» — μια συμπεριφορά που μπορεί να επηρεάσει αρνητικά τις κοινωνικές σχέσεις και την ψυχική υγεία των χρηστών.

Συγκεκριμένα, μια νέα μελέτη επιστημόνων από το Πανεπιστήμιο Στάνφορντ και το Πανεπιστήμιο Κάρνεγκι Μέλον (ΗΠΑ), που δημοσιεύθηκε στις αρχές Οκτωβρίου, αξιολόγησε 11 μεγάλα γλωσσικά μοντέλα (LLM) σχετικά με τον τρόπο αντίδρασης όταν οι χρήστες ζητούν συμβουλές σε προσωπικές καταστάσεις, ειδικά σε εκείνες που αφορούν εξαπάτηση ή χειραγώγηση.

Για να παρέχει ένα ανθρώπινο σημείο αναφοράς για σύγκριση, η ερευνητική ομάδα χρησιμοποίησε αναρτήσεις από την κοινότητα "Am I The Ahole" στο Reddit, όπου οι χρήστες μοιράζονται προσωπικές καταστάσεις σύγκρουσης και ζητούν από την κοινότητα να αξιολογήσει ποιος έκανε λάθος.

Τα μοντέλα τεχνητής νοημοσύνης δοκιμάστηκαν με αυτά τα σενάρια για να διαπιστωθεί εάν συμφωνούν με την αξιολόγηση της κοινότητας.

Τα αποτελέσματα δείχνουν ότι το μοντέλο Qwen2.5-7B-Instruct της Alibaba Cloud είναι το πιο «κολακευτικό», ευνοώντας τον χρήστη που το δημοσίευσε στο 79% των περιπτώσεων, ακόμη και όταν η κοινότητα έκρινε ότι ο χρήστης έκανε λάθος. Το DeepSeek-V3 ήρθε δεύτερο με ποσοστό 76%.

Εν τω μεταξύ, το Gemini-1.5 του Google DeepMind έδειξε το χαμηλότερο επίπεδο μεροληψίας, με μόνο το 18% των περιπτώσεων να αντιφάσκουν με τις αξιολογήσεις της κοινότητας.

Οι ερευνητές προειδοποιούν ότι η τάση της Τεχνητής Νοημοσύνης να «κολακεύει» τους χρήστες θα μπορούσε να τους κάνει λιγότερο πρόθυμους να συμφιλιωθούν ή να παραδεχτούν λάθη στις σχέσεις.

Οι χρήστες συχνά εκτιμούν και εμπιστεύονται περισσότερο τα κολακευτικά σχόλια, γεγονός που καθιστά αυτά τα μοντέλα πιο δημοφιλή και ευρέως χρησιμοποιούμενα.

«Αυτές οι προτιμήσεις δημιουργούν ένα μεροληπτικό σύστημα κινήτρων οι χρήστες βασίζονται ολοένα και περισσότερο στην κολακευτική Τεχνητή Νοημοσύνη και οι προγραμματιστές τείνουν να εκπαιδεύουν μοντέλα προς αυτή την κατεύθυνση» , σημείωσε η ερευνητική ομάδα.

Σύμφωνα με τον καθηγητή Jack Jiang, Διευθυντή του Εργαστηρίου Αξιολόγησης Τεχνητής Νοημοσύνης στη Σχολή Διοίκησης Επιχειρήσεων του Πανεπιστημίου του Χονγκ Κονγκ, αυτό το φαινόμενο ενέχει επίσης κινδύνους για τις επιχειρήσεις: «Εάν ένα μοντέλο συμφωνεί σταθερά με τα συμπεράσματα ενός αναλυτή επιχειρήσεων, μπορεί να οδηγήσει σε εσφαλμένες και ανασφαλείς αποφάσεις».

Το ζήτημα της «κολακείας» της Τεχνητής Νοημοσύνης τράβηξε για πρώτη φορά την προσοχή τον Απρίλιο του 2025, όταν η ενημέρωση ChatGPT του OpenAI θεωρήθηκε υπερβολικά ευγενική και υπερβολικά ευχάριστη για τη γνώμη κάθε χρήστη.

Η OpenAI αργότερα αναγνώρισε ότι αυτό θα μπορούσε να επηρεάσει την ψυχική υγεία και δεσμεύτηκε να βελτιώσει τη διαδικασία αξιολόγησης πριν από την κυκλοφορία νέων εκδόσεων.

ΚΑΡΔΙΑ ΚΑΙ ΓΙΑΝΓΚ

Πηγή: https://tuoitre.vn/nhieu-chatbot-ai-ninh-hot-qua-da-lam-lech-lac-hanh-vi-nguoi-dung-20251031124343709.htm


Σχόλιο (0)

Αφήστε ένα σχόλιο για να μοιραστείτε τα συναισθήματά σας!

Στο ίδιο θέμα

Στην ίδια κατηγορία

Από τον ίδιο συγγραφέα

Κληρονομία

Εικόνα

Επιχειρήσεις

Τρέχοντα Θέματα

Πολιτικό Σύστημα

Τοπικός

Προϊόν

Happy Vietnam
Το Βιετνάμ μας

Το Βιετνάμ μας

Αγαπημένη Πατρίδα

Αγαπημένη Πατρίδα

Ανταγωνισμός

Ανταγωνισμός