Studi yang diterbitkan awal Oktober ini menguji 11 model bahasa besar (LLM) dengan meminta mereka memberikan nasihat kepada pengguna dalam situasi yang melibatkan konflik interpersonal, manipulasi, dan penipuan. Hasilnya menunjukkan bahwa chatbot AI seringkali terlalu mudah untuk menyetujui dan mendukung pandangan pengguna, alih-alih menantang atau memberikan nasihat yang jujur.
Di antara model yang dianalisis, DeepSeek V3 (dirilis Desember 2024) merupakan salah satu model yang paling “menjilat”, dengan tingkat persetujuan pengguna 55% lebih tinggi dibandingkan manusia, sementara rata-rata semua model adalah 47%.

Demikian pula, model Qwen2.5-7B-Instruct milik Alibaba Cloud (diluncurkan pada Januari 2025) dinilai sebagai model yang paling disukai pengguna, bertentangan dengan penilaian benar komunitas Reddit sebesar 79%, dan menduduki puncak daftar.
DeepSeek-V3 berada di posisi kedua, memihak poster sebesar 76% meskipun mereka salah.
Untuk membangun “norma manusia”, tim tersebut menggunakan data dari komunitas Reddit “Am I The Ahole”**, tempat para pengguna mengunggah situasi kehidupan nyata yang menanyakan siapa yang salah.
Ketika membandingkan respons AI dengan kesimpulan komunitas (sebagian besar penutur bahasa Inggris), para peneliti menemukan bahwa AI cenderung berpihak pada pembuat postingan, bahkan ketika mereka jelas-jelas salah.
“Tren-tren ini menciptakan efek kontraproduktif – menyebabkan manusia lebih menyukai model AI yang lebih baik, dan pengembang melatih AI untuk lebih baik lagi agar menyenangkan pengguna,” para penulis memperingatkan.
Fenomena "sanjungan AI" tidak hanya menjadi masalah sosial tetapi juga memengaruhi bisnis, menurut Profesor Jack Jiang, Direktur Lab Evaluasi AI di Sekolah Bisnis Universitas Hong Kong.
"Akan berbahaya jika suatu model secara konsisten sesuai dengan analisis atau kesimpulan para ahli di bidangnya," ujarnya. "Hal itu dapat menyebabkan keputusan yang keliru atau belum teruji."
Penelitian ini berkontribusi pada penjelasan masalah etika yang muncul di era AI generatif – di mana model yang dirancang untuk menyenangkan pengguna dapat mengorbankan objektivitas dan kejujuran, yang menyebabkan konsekuensi yang tidak diinginkan dalam interaksi manusia-mesin yang dapat berdampak negatif pada hubungan sosial dan kesehatan mental pengguna.
Sumber: https://vietnamnet.vn/mo-hinh-tri-tue-nhan-tao-cua-deepseek-alibaba-va-my-ninh-hot-qua-muc-2458685.html






Komentar (0)