Vietnam.vn - Nền tảng quảng bá Việt Nam

Πολλές Τεχνητές Νοημοσύνης «κολακεύουν» υπερβολικά τους χρήστες

Νέα έρευνα δείχνει ότι αυτή η συμπεριφορά μπορεί να επηρεάσει αρνητικά τις κοινωνικές σχέσεις των χρηστών, την ψυχική υγεία, ακόμη και τις επιχειρηματικές αποφάσεις.

Báo Tuổi TrẻBáo Tuổi Trẻ31/10/2025

AI  - Ảnh 1.

Στον τομέα της Τεχνητής Νοημοσύνης, η «συκοφαντία» αναφέρεται στην τάση των chatbot να συμφωνούν ή να επαινούν υπερβολικά τους χρήστες - Φωτογραφία: REUTERS

Σύμφωνα με την SCMP, κορυφαία μοντέλα τεχνητής νοημοσύνης (AI) από την Κίνα και τις ΗΠΑ, όπως η DeepSeek, η Alibaba και πολλά άλλα μεγάλα ονόματα, τείνουν να είναι υπερβολικά «συκοφαντικά» - μια συμπεριφορά που μπορεί να επηρεάσει αρνητικά τις κοινωνικές σχέσεις και την ψυχική υγεία των χρηστών.

Συγκεκριμένα, μια νέα μελέτη επιστημόνων από το Πανεπιστήμιο Στάνφορντ και το Πανεπιστήμιο Κάρνεγκι Μέλον (ΗΠΑ), που δημοσιεύθηκε στις αρχές Οκτωβρίου, αξιολόγησε 11 μεγάλα γλωσσικά μοντέλα (LLM) σχετικά με το πώς αντιδρούν οι χρήστες όταν αναζητούν συμβουλές σε προσωπικές καταστάσεις, ειδικά σε εκείνες με στοιχεία εξαπάτησης ή χειραγώγησης.

Για να παρέχει ένα σημείο αναφοράς για ανθρώπινη σύγκριση, η ομάδα χρησιμοποίησε αναρτήσεις από την κοινότητα "Am I The Ahole" στο Reddit, όπου οι χρήστες μοιράζονται προσωπικές καταστάσεις σύγκρουσης και ζητούν από την κοινότητα να κρίνει ποιος κάνει λάθος.

Τα μοντέλα τεχνητής νοημοσύνης δοκιμάστηκαν με αυτά τα σενάρια για να διαπιστωθεί εάν συμφωνούσαν με τις αξιολογήσεις της κοινότητας.

Τα αποτελέσματα έδειξαν ότι το μοντέλο Qwen2.5-7B-Instruct της Alibaba Cloud ήταν το πιο «κακοποιητικό», ευνοώντας τον χρήστη που το έγραψε στο 79% των περιπτώσεων, ακόμη και αν η κοινότητα έκρινε ότι αυτό το άτομο ήταν λάθος. Το DeepSeek-V3 ήρθε δεύτερο με ποσοστό 76%.

Εν τω μεταξύ, το Gemini-1.5 του Google DeepMind έδειξε το χαμηλότερο επίπεδο κολακείας, με μόνο το 18% των περιπτώσεων να αντικρούουν την αξιολόγηση της κοινότητας.

Οι ερευνητές προειδοποιούν ότι η τάση της Τεχνητής Νοημοσύνης να «κολακεύει» τους χρήστες θα μπορούσε να τους κάνει λιγότερο πρόθυμους να συμφιλιωθούν ή να παραδεχτούν λάθη στις σχέσεις.

Στην πραγματικότητα, οι χρήστες συχνά εκτιμούν και εμπιστεύονται περισσότερο τα κολακευτικά σχόλια, καθιστώντας αυτά τα μοντέλα πιο δημοφιλή και ευρέως χρησιμοποιούμενα.

«Αυτές οι προτιμήσεις δημιουργούν αντιστρεπτά κίνητρα οι χρήστες εξαρτώνται ολοένα και περισσότερο από την κολακευτική Τεχνητή Νοημοσύνη και οι προγραμματιστές τείνουν να εκπαιδεύουν μοντέλα προς αυτή την κατεύθυνση » , ανέφερε η ομάδα.

Σύμφωνα με τον καθηγητή Jack Jiang, Διευθυντή του Εργαστηρίου Αξιολόγησης Τεχνητής Νοημοσύνης στη Σχολή Διοίκησης Επιχειρήσεων του Πανεπιστημίου του Χονγκ Κονγκ, αυτό το φαινόμενο ενέχει επίσης κινδύνους για τις επιχειρήσεις: «Εάν ένα μοντέλο συμφωνεί πάντα με τα συμπεράσματα ενός αναλυτή επιχειρήσεων, μπορεί να οδηγήσει σε λανθασμένες και επικίνδυνες αποφάσεις».

Το ζήτημα της «κολακείας» της Τεχνητής Νοημοσύνης ήρθε στο φως τον Απρίλιο του 2025, όταν η ενημέρωση ChatGPT του OpenAI χαρακτηρίστηκε υπερβολικά ευγενική και υπερβολικά συμπονετική προς όλες τις απόψεις των χρηστών.

Η OpenAI αργότερα αναγνώρισε ότι αυτό θα μπορούσε να επηρεάσει την ψυχική υγεία και δεσμεύτηκε να βελτιώσει τη διαδικασία αξιολόγησης πριν από την κυκλοφορία νέων εκδόσεων.

ΚΑΡΔΙΑ ΚΑΙ ΗΛΙΟΣ

Πηγή: https://tuoitre.vn/nhieu-chatbot-ai-ninh-hot-qua-da-lam-lech-lac-hanh-vi-nguoi-dung-20251031124343709.htm


Σχόλιο (0)

No data
No data

Στο ίδιο θέμα

Στην ίδια κατηγορία

Η πόλη Χο Τσι Μινχ προσελκύει επενδύσεις από άμεσες ξένες επενδύσεις σε νέες ευκαιρίες
Ιστορικές πλημμύρες στο Χόι Αν, όπως φαίνονται από στρατιωτικό αεροπλάνο του Υπουργείου Εθνικής Άμυνας
Η «μεγάλη πλημμύρα» στον ποταμό Thu Bon ξεπέρασε την ιστορική πλημμύρα του 1964 κατά 0,14 μέτρα.
Οροπέδιο Ντονγκ Βαν - ένα σπάνιο «ζωντανό γεωλογικό μουσείο» στον κόσμο

Από τον ίδιο συγγραφέα

Κληρονομία

Εικόνα

Επιχείρηση

Θαυμάστε το «Ha Long Bay on the land» που μόλις μπήκε στους κορυφαίους αγαπημένους προορισμούς στον κόσμο

Τρέχοντα γεγονότα

Πολιτικό Σύστημα

Τοπικός

Προϊόν