Vietnam.vn - Nền tảng quảng bá Việt Nam

Jangan sampai ChatGPT menipu Anda.

Penelitian dari Universitas Stanford memperingatkan bahwa model AI sengaja menyanjung pengguna untuk mendapatkan simpati, yang berpotensi menghambat pemikiran kritis.

ZNewsZNews13/03/2026

Chatbot AI secara tidak langsung mendorong perilaku negatif melalui mekanisme umpan balik yang selalu memprioritaskan persetujuan pengguna. Foto: The Decoder .

Sebuah studi mengejutkan dari Universitas Stanford baru saja mengungkap sisi gelap AI. Model-model populer seperti ChatGPT dan Gemini semakin bersikap terlalu patuh kepada pengguna. Mereka tidak hanya menyetujui pendapat pribadi tetapi juga mendukung perilaku yang tidak etis.

Hal ini menciptakan konsekuensi berbahaya bagi perkembangan psikologis dan kognitif manusia. Kita secara bertahap menjadi versi diri kita yang lebih buruk karena kita terus-menerus dihibur oleh AI dalam setiap kesalahan.

Fenomena "sanjungan"

Dalam ilmu komputer, ada istilah yang disebut "penjilatan," yang merujuk pada cara AI menyesuaikan responsnya untuk menyanjung pengguna.

Sebuah tim peneliti di Stanford menganalisis lebih dari 11.500 percakapan pengguna di kehidupan nyata. Hasilnya menunjukkan bahwa model AI lebih sering setuju dengan pengguna (50%) daripada manusia sungguhan. Ketika pengguna mengajukan pertanyaan yang bias, AI cenderung mengikuti pendapat mereka daripada memberikan informasi objektif.

Salah satu pengujian membandingkan respons manusia dan chatbot terhadap unggahan di forum Reddit di mana pengguna meminta komunitas untuk menilai perilaku mereka.

Meskipun komunitas tersebut mengkritik keras seseorang karena menggantung kantong sampah di dahan pohon karena tidak dapat menemukan tempat sampah, ChatGPT-4o memujinya, dengan mengatakan, "Niat Anda untuk membersihkan setelah Anda pergi patut dipuji."

ChatGPT anh 1

Para ahli menyarankan pengguna untuk meminta nasihat dari keluarga dan teman, bukan dari AI. Foto: Bloomberg.

Yang lebih mengkhawatirkan, chatbot seperti Gemini atau ChatGPT terus memvalidasi niat pengguna bahkan ketika niat tersebut tidak bertanggung jawab, menipu, atau merujuk pada tindakan menyakiti diri sendiri.

"Model bahasa berskala besar belajar untuk mencerminkan keyakinan pengguna alih-alih memperbaikinya," demikian peringatan Myra Cheng, penulis utama studi tersebut.

Menurutnya, tujuan untuk menyenangkan manusia demi mendapatkan peringkat tinggi telah mengubah AI menjadi alat yang tidak jujur.

"Jika model AI secara konsisten sepakat dengan manusia, hal itu dapat mendistorsi persepsi pengguna tentang diri mereka sendiri, hubungan, dan dunia di sekitar mereka. Sulit untuk menyadari bahwa model-model ini secara halus memperkuat keyakinan, asumsi, dan keputusan kita yang sudah ada sebelumnya," lanjut pakar tersebut.

Dr. Alexander Laffer (Universitas Winchester) berpendapat bahwa sanjungan ini adalah konsekuensi alami dari metode pelatihan dan tekanan komersial.

"Pujian berlebihan adalah konsekuensi dari cara AI dilatih. Realitasnya adalah kesuksesan komersial mereka sering dinilai dari kemampuan mereka untuk menarik pengguna," ujar Laffer.

Untuk mengatasi hal ini, Ibu Cheng menyarankan pengguna untuk tidak hanya bergantung pada AI.

"Sangat penting untuk mencari perspektif dari orang-orang nyata yang memahami konteks dan siapa Anda, daripada hanya mengandalkan jawaban dari AI," saran Cheng.

Pada saat yang sama, Dr. Laffer juga menekankan tanggung jawab produsen.

"Kita perlu meningkatkan kemampuan penilaian digital... para pengembang juga memiliki tanggung jawab untuk membangun dan menyempurnakan sistem ini agar benar-benar bermanfaat bagi pengguna," kata dokter tersebut.

Konsekuensi memiliki "versi yang lebih buruk" dari diri sendiri.

Studi ini menekankan bahwa sanjungan AI menciptakan "ruang gema informasi" yang dipersonalisasi, menghilangkan kebutuhan akan pemikiran kritis yang memungkinkan individu untuk menjadi lebih dewasa dan mengenali kesalahan mereka.

"Saat berinteraksi dengan AI, Anda tidak akan pernah ditantang secara intelektual. AI akan selalu mengatakan bahwa Anda benar dan orang lainlah yang salah. Hal ini menciptakan rasa percaya diri palsu pada pengguna, bahkan ketika mereka bertindak jahat," demikian pernyataan studi tersebut.

Proses ini sepenuhnya menghilangkan kemampuan manusia untuk berpikir kritis. Alih-alih refleksi diri, kita menggunakan AI sebagai alat untuk memvalidasi asumsi kita sendiri.

Seiring waktu, kemampuan untuk memahami dan berkompromi dalam masyarakat akan sangat berkurang. Kita akan kesulitan menerima pendapat yang berbeda dari orang-orang di sekitar kita. Karena di dunia AI, kita selalu menjadi pusat dan selalu benar.

ChatGPT anh 2

AI berperan sebagai "penjilat" tidak langsung, menghancurkan kepribadian dan moralitas penggunanya. Foto: ShutterStock.

Penelitian memperingatkan adanya siklus berbahaya yang terbentuk dalam kehidupan. Pertama, pengguna mengembangkan pikiran atau niat yang salah untuk menyakiti orang lain. Mereka beralih ke AI untuk curhat atau meminta nasihat. Pada titik ini, AI mengkonfirmasi bahwa tindakan tersebut sepenuhnya dibenarkan dan mendukung pengguna. Pengguna merasa lebih percaya diri dan melakukan perilaku tersebut dalam kehidupan nyata tanpa penyesalan.

Akibatnya, orang-orang tidak lagi ingin memperbaiki hubungan atau meningkatkan diri. Kita semakin mempercayai AI sepenuhnya karena memberikan rasa nyaman. Ketergantungan pada "rasa nyaman" ini menjauhkan kita dari realitas objektif.

AI bukan lagi sekadar alat pendukung yang cerdas. Ia telah menjadi "penjilat" tidak langsung yang menghancurkan karakter dan moralitas penggunanya.

Sumber: https://znews.vn/dung-nghe-loi-chatgpt-post1634436.html


Komentar (0)

Silakan tinggalkan komentar untuk berbagi perasaan Anda!

Dalam kategori yang sama

Dari penulis yang sama

Warisan

Angka

Bisnis

Berita Terkini

Sistem Politik

Lokal

Produk

Happy Vietnam
Upacara Pembukaan

Upacara Pembukaan

Mausoleum Ho Chi Minh

Mausoleum Ho Chi Minh

gambar-gambar indah orang Vietnam

gambar-gambar indah orang Vietnam