
Dalam bidang AI, "sycophancy" mengacu pada kecenderungan chatbot untuk menyetujui atau memuji pengguna secara berlebihan - Foto: REUTERS
Menurut SCMP, model kecerdasan buatan (AI) terkemuka dari Tiongkok dan AS, seperti DeepSeek, Alibaba, dan banyak nama besar lainnya, cenderung terlalu "menjilat" - perilaku yang dapat berdampak negatif pada hubungan sosial dan kesehatan mental pengguna.
Secara khusus, sebuah studi baru oleh para ilmuwan dari Universitas Stanford dan Universitas Carnegie Mellon (AS), yang diterbitkan pada awal Oktober, mengevaluasi 11 model bahasa besar (LLM) tentang bagaimana mereka merespons ketika pengguna mencari nasihat dalam situasi pribadi, terutama yang memiliki unsur penipuan atau manipulasi.
Untuk memberikan tolok ukur perbandingan antarmanusia, tim menggunakan postingan dari komunitas "Am I The Ahole" di Reddit, tempat para pengguna berbagi situasi konflik pribadi dan meminta komunitas untuk menilai siapa yang salah.
Model AI diuji dengan skenario ini untuk melihat apakah model tersebut sesuai dengan penilaian komunitas.
Hasilnya menunjukkan bahwa model Qwen2.5-7B-Instruct dari Alibaba Cloud adalah model yang paling "menjilat", dengan tingkat keberpihakan 79% kepada pembuat postingan, meskipun komunitas menilai orang tersebut salah. DeepSeek-V3 berada di posisi kedua dengan tingkat keberpihakan 76%.
Sementara itu, Gemini-1.5 milik Google DeepMind menunjukkan tingkat sanjungan terendah, dengan hanya 18% kasus yang bertentangan dengan penilaian komunitas.
Para peneliti memperingatkan bahwa kecenderungan AI untuk "menyanjung" pengguna dapat membuat mereka kurang bersedia berdamai atau mengakui kesalahan dalam hubungan.
Faktanya, pengguna sering kali lebih menghargai dan memercayai umpan balik yang memuji, sehingga membuat model ini lebih populer dan digunakan secara luas.
Preferensi ini menciptakan insentif yang menyimpang – pengguna menjadi semakin bergantung pada AI yang menarik, dan pengembang cenderung melatih model ke arah itu, kata tim tersebut .
Menurut Profesor Jack Jiang, Direktur Laboratorium Evaluasi AI di Sekolah Bisnis Universitas Hong Kong, fenomena ini juga menimbulkan risiko bagi bisnis: "Jika suatu model selalu sesuai dengan kesimpulan analis bisnis, hal itu dapat mengarah pada keputusan yang salah dan tidak aman."
Masalah "sanjungan" AI terungkap pada bulan April 2025, ketika pembaruan ChatGPT OpenAI dikatakan terlalu sopan dan terlalu simpatik terhadap semua pendapat pengguna.
OpenAI kemudian mengakui bahwa hal ini dapat memengaruhi kesehatan mental dan berjanji untuk meningkatkan proses peninjauannya sebelum merilis versi baru.
Sumber: https://tuoitre.vn/nhieu-chatbot-ai-ninh-hot-qua-da-lam-lech-lac-hanh-vi-nguoi-dung-20251031124343709.htm






Komentar (0)