![]() |
Bot sembang AI secara tidak langsung menggalakkan tingkah laku negatif melalui mekanisme maklum balas yang sentiasa mengutamakan persetujuan pengguna. Foto: The Decoder . |
Satu kajian yang mengejutkan dari Universiti Stanford baru sahaja mendedahkan sisi gelap AI. Model popular seperti ChatGPT dan Gemini semakin menjadi terlalu patuh kepada pengguna. Mereka bukan sahaja bersetuju dengan pendapat peribadi tetapi juga menyokong tingkah laku yang tidak beretika.
Ini mewujudkan akibat berbahaya bagi perkembangan psikologi dan kognitif manusia. Kita secara beransur-ansur menjadi versi diri kita yang lebih buruk kerana kita sentiasa dihiburkan oleh AI dalam setiap kesilapan.
Fenomena "pujian"
Dalam sains komputer, terdapat istilah yang dipanggil "sycophancy," yang merujuk kepada cara AI melaraskan tindak balasnya untuk menyanjung pengguna.
Sebuah pasukan penyelidikan di Stanford menganalisis lebih 11,500 perbualan pengguna sebenar. Keputusan menunjukkan bahawa model AI 50% lebih kerap bersetuju dengan pengguna berbanding orang sebenar. Apabila pengguna menanyakan soalan yang berat sebelah, AI cenderung untuk bersetuju dengannya dan bukannya memberikan maklumat yang objektif.
Satu ujian membandingkan respons manusia dan chatbot dengan siaran di forum Reddit di mana pengguna meminta komuniti untuk menilai tingkah laku mereka.
Walaupun masyarakat mengkritik keras seseorang kerana menggantung beg sampah di dahan pokok kerana mereka tidak dapat menemui tong sampah, ChatGPT-4o memujinya, dengan berkata, "Niat anda untuk membersihkan selepas anda pergi adalah terpuji."
![]() |
Pakar menasihati pengguna untuk mendapatkan nasihat daripada keluarga dan rakan-rakan dan bukannya AI. Foto: Bloomberg. |
Lebih membimbangkan, chatbot seperti Gemini atau ChatGPT terus mengesahkan niat pengguna walaupun ia tidak bertanggungjawab, mengelirukan atau merujuk kepada kecederaan diri sendiri.
"Model bahasa berskala besar sedang belajar untuk mencerminkan kepercayaan pengguna dan bukannya membetulkannya," Myra Cheng, penulis utama kajian itu memberi amaran.
Menurutnya, matlamat untuk menyenangkan manusia bagi menerima penilaian yang tinggi telah menjadikan AI sebagai alat yang tidak jujur.
"Jika model AI secara konsisten bersetuju dengan manusia, ia boleh memesongkan persepsi pengguna tentang diri mereka sendiri, hubungan dan dunia di sekeliling mereka. Sukar untuk menyedari bahawa model ini secara halus mengukuhkan kepercayaan, andaian dan keputusan kita yang sedia ada," sambung pakar itu.
Dr. Alexander Laffer (Universiti Winchester) berhujah bahawa sanjungan ini adalah akibat semula jadi daripada kaedah latihan dan tekanan komersial.
"Sanjungan adalah akibat daripada cara AI dilatih. Realitinya ialah kejayaan komersial mereka sering dinilai berdasarkan keupayaan mereka untuk menarik pengguna," kata Laffer.
Untuk menangani perkara ini, Cik Cheng menasihati pengguna agar tidak bergantung sepenuhnya pada AI.
"Adalah penting untuk mencari perspektif daripada orang sebenar yang memahami konteks dan siapa diri anda, daripada hanya bergantung pada jawapan AI," nasihat Cheng.
Pada masa yang sama, Dr. Laffer turut menekankan tanggungjawab pengilang.
"Kita perlu meningkatkan keupayaan penilaian digital... pembangun juga mempunyai tanggungjawab untuk membina dan memperhalusi sistem ini supaya ia benar-benar memberi manfaat kepada pengguna," kata doktor itu.
Akibat daripada mempunyai "versi yang lebih buruk" diri anda.
Kajian ini menekankan bahawa pujian AI mewujudkan "ruang gema maklumat" yang diperibadikan, menghapuskan keperluan untuk pemikiran kritis yang akan membolehkan individu matang dan mengenali kesilapan mereka.
"Apabila berbual dengan AI, anda tidak akan pernah dicabar secara intelektual. AI akan sentiasa mengatakan anda betul dan orang lain bersalah. Ini mewujudkan rasa keyakinan palsu dalam diri pengguna, walaupun mereka bertindak dengan niat jahat," kata kajian itu.
Proses ini menghapuskan sepenuhnya kapasiti manusia untuk berfikir secara kritis. Daripada muhasabah diri, kita menggunakan AI sebagai alat untuk mengesahkan andaian kita sendiri.
Lama-kelamaan, keupayaan untuk memahami dan berkompromi dalam masyarakat akan berkurangan dengan ketara. Kita akan mendapati sukar untuk menerima pendapat yang berbeza daripada orang di sekeliling kita. Kerana dalam dunia AI, kita sentiasa berada di tengah dan sentiasa betul.
![]() |
AI memainkan peranan sebagai "penyanjung" secara tidak langsung, yang memusnahkan keperibadian dan moral penggunanya. Foto: ShutterStock. |
Kajian memberi amaran tentang kitaran berbahaya yang terbentuk dalam kehidupan. Pertama, pengguna mengembangkan pemikiran atau niat yang salah untuk mencederakan orang lain. Mereka beralih kepada AI untuk mendapatkan kepercayaan atau nasihat. Pada ketika ini, AI mengesahkan bahawa tindakan itu sepenuhnya wajar dan menyokong pengguna. Pengguna berasa lebih yakin dan menjalankan tingkah laku dalam kehidupan sebenar tanpa sebarang penyesalan.
Akibatnya, orang ramai tidak lagi mahu memperbaiki hubungan atau memperbaiki diri mereka sendiri. Kita semakin mempercayai AI sepenuhnya kerana ia memberikan rasa selesa. Kebergantungan pada "dihiburkan" ini menjauhkan kita daripada realiti objektif.
AI bukan lagi sekadar alat sokongan pintar. Ia telah menjadi "penyanjung" secara tidak langsung yang memusnahkan watak dan moral penggunanya.
Sumber: https://znews.vn/dung-nghe-loi-chatgpt-post1634436.html









Komen (0)