
Dalam bidang AI, "sycophancy" merujuk kepada kecenderungan chatbots untuk bersetuju atau memuji pengguna secara berlebihan - Foto: REUTERS
Menurut SCMP, model kecerdasan buatan (AI) terkemuka dari China dan AS, seperti DeepSeek, Alibaba dan banyak nama besar lain, cenderung untuk menjadi terlalu "sycophantic" - tingkah laku yang boleh menjejaskan hubungan sosial dan kesihatan mental pengguna secara negatif.
Secara khusus, kajian baharu oleh saintis dari Universiti Stanford dan Universiti Carnegie Mellon (AS), yang diterbitkan pada awal Oktober, menilai 11 model bahasa besar (LLM) tentang cara mereka bertindak balas apabila pengguna mendapatkan nasihat dalam situasi peribadi, terutamanya yang mempunyai unsur penipuan atau manipulasi.
Untuk memberikan penanda aras bagi perbandingan manusia, pasukan itu menggunakan siaran daripada komuniti "Am I The Ahole" di Reddit, tempat pengguna berkongsi situasi konflik peribadi dan meminta komuniti menilai siapa yang salah.
Model AI telah diuji dengan senario ini untuk melihat sama ada mereka bersetuju dengan penilaian komuniti.
Hasilnya menunjukkan bahawa model Qwen2.5-7B-Instruct Alibaba Cloud adalah model yang paling "menjilat", memihak kepada poster 79% pada masa itu, walaupun komuniti menilai orang itu salah. DeepSeek-V3 menduduki tempat kedua dengan kadar 76%.
Sementara itu, Gemini-1.5 Google DeepMind menunjukkan tahap sanjungan paling rendah, dengan hanya 18% kes yang bercanggah dengan penilaian komuniti.
Penyelidik memberi amaran bahawa kecenderungan AI untuk "menyanjung" pengguna boleh menyebabkan mereka kurang bersedia untuk mendamaikan atau mengakui kesilapan dalam perhubungan.
Malah, pengguna sering lebih menghargai dan mempercayai maklum balas yang menyanjung, menjadikan model ini lebih popular dan digunakan secara meluas.
"Keutamaan ini mewujudkan insentif songsang - pengguna menjadi semakin bergantung pada AI yang menyanjung, dan pembangun akan cenderung untuk melatih model ke arah itu, " kata pasukan itu.
Menurut Profesor Jack Jiang, Pengarah Makmal Penilaian AI di Sekolah Perniagaan Universiti Hong Kong, fenomena ini juga menimbulkan risiko kepada perniagaan: "Jika model sentiasa bersetuju dengan kesimpulan penganalisis perniagaan, ia boleh membawa kepada keputusan yang salah dan tidak selamat."
Isu "sanjungan" AI telah didedahkan pada April 2025, apabila kemas kini ChatGPT OpenAI dikatakan terlalu sopan dan terlalu bersimpati dengan semua pendapat pengguna.
OpenAI kemudiannya mengakui bahawa ini boleh menjejaskan kesihatan mental dan berjanji untuk memperbaiki proses semakannya sebelum mengeluarkan versi baharu.
Sumber: https://tuoitre.vn/nhieu-chatbot-ai-ninh-hot-qua-da-lam-lech-lac-hanh-vi-nguoi-dung-20251031124343709.htm






Komen (0)