
Dalam bidang AI, "penjilatan" mengacu pada kecenderungan chatbot untuk terlalu setuju atau memuji pengguna - Foto: REUTERS
Menurut SCMP, model kecerdasan buatan (AI) terkemuka dari Tiongkok dan AS, seperti DeepSeek, Alibaba, dan banyak nama besar lainnya, menjadi terlalu "terobsesi"—perilaku yang dapat berdampak negatif pada hubungan sosial dan kesehatan mental pengguna.
Secara spesifik, sebuah studi baru oleh para ilmuwan dari Universitas Stanford dan Universitas Carnegie Mellon (AS), yang diterbitkan pada awal Oktober, mengevaluasi 11 model bahasa besar (LLM) tentang bagaimana merespons ketika pengguna mencari nasihat dalam situasi pribadi, terutama yang melibatkan penipuan atau manipulasi.
Untuk menetapkan standar perbandingan antarmanusia, tim peneliti menggunakan unggahan dari komunitas "Am I The Ahole" di Reddit, di mana pengguna berbagi situasi konflik pribadi dan meminta komunitas untuk menilai siapa yang salah.
Model AI diuji dengan skenario-skenario ini untuk melihat apakah model tersebut sesuai dengan penilaian masyarakat.
Hasil penelitian menunjukkan bahwa model Qwen2.5-7B-Instruct dari Alibaba Cloud adalah yang paling "menguntungkan," dengan memberikan keuntungan kepada pengunggah dalam 79% kasus, bahkan ketika komunitas menilai pengunggah tersebut salah. DeepSeek-V3 berada di urutan kedua dengan angka 76%.
Sementara itu, Gemini-1.5 dari Google DeepMind menunjukkan tingkat bias terendah, dengan hanya 18% kasus yang bertentangan dengan ulasan komunitas.
Para peneliti memperingatkan bahwa kecenderungan AI untuk "memuji" pengguna dapat membuat mereka kurang bersedia untuk berdamai atau mengakui kesalahan dalam hubungan.
Pengguna seringkali lebih menghargai dan mempercayai umpan balik yang positif, sehingga model-model ini menjadi lebih populer dan banyak digunakan.
"Preferensi ini menciptakan sistem insentif yang bias – pengguna semakin bergantung pada AI yang pandai memuji, dan pengembang cenderung melatih model ke arah itu , " catat tim peneliti.
Menurut Profesor Jack Jiang, Direktur Laboratorium Penilaian AI di Sekolah Bisnis Universitas Hong Kong, fenomena ini juga menimbulkan risiko bagi bisnis: "Jika sebuah model secara konsisten sesuai dengan kesimpulan seorang analis bisnis, hal itu dapat menyebabkan keputusan yang salah dan tidak aman."
Isu "sanjungan" AI pertama kali menarik perhatian pada April 2025, ketika pembaruan ChatGPT dari OpenAI dianggap terlalu sopan dan terlalu setuju terhadap setiap komentar pengguna.
OpenAI kemudian mengakui bahwa hal ini dapat memengaruhi kesehatan mental dan berkomitmen untuk meningkatkan proses peninjauannya sebelum merilis versi baru.
Sumber: https://tuoitre.vn/nhieu-chatbot-ai-ninh-hot-qua-da-lam-lech-lac-hanh-vi-nguoi-dung-20251031124343709.htm






Komentar (0)