Kecerdasan buatan membantu orang menyusun email, merekomendasikan film, menganalisis data, dan membantu mendiagnosis penyakit...
Namun, seiring AI semakin pintar, rasa tidak aman yang ditimbulkannya pun semakin meningkat. Sebagiannya disebabkan oleh kita yang belum sepenuhnya memahami teknologi yang kita gunakan. Sisanya berasal dari naluri psikologis kita sendiri.

AI berkembang lebih cepat daripada kemampuan adaptasi psikologis manusia (Foto ilustrasi).
Ketika AI menjadi “kotak hitam” dan pengguna kehilangan kendali
Orang cenderung memercayai apa yang mereka pahami dan kendalikan. Saat Anda menekan tombol, lift akan bergerak. Saat Anda menekan sakelar, lampu akan menyala. Respons yang jelas menciptakan rasa aman.
Sebaliknya, banyak sistem AI beroperasi seperti kotak tertutup. Anda memasukkan data, tetapi cara menghasilkan hasilnya tersembunyi. Hal ini membuat pengguna tidak dapat memahami atau bertanya.
Rasa ketidakjelasan ini meresahkan. Pengguna tidak hanya membutuhkan alat yang berfungsi, tetapi juga perlu tahu mengapa alat tersebut berfungsi.
Jika AI gagal memberikan penjelasan, orang-orang mulai mempertanyakannya. Hal ini mengarah pada konsep yang disebut "keengganan algoritma", yang digambarkan oleh para peneliti perilaku sebagai fenomena di mana orang cenderung memilih keputusan orang lain, meskipun mereka salah, alih-alih memercayai penilaian mesin.
Banyak orang khawatir AI akan menjadi terlalu akurat. Mesin rekomendasi konten bisa jadi menjengkelkan jika terlalu teliti. Perasaan diawasi atau dimanipulasi mulai muncul, meskipun sistem itu sendiri tidak memiliki emosi atau niat.
Reaksi ini bermula dari perilaku naluriah: antropomorfisme. Meskipun kita tahu AI bukan manusia, kita tetap meresponsnya seolah-olah kita sedang berkomunikasi dengan seseorang. Ketika AI terlalu sopan atau terlalu dingin, pengguna merasa aneh dan tidak percaya.
Manusia memaafkan sesamanya, tetapi tidak kepada mesin.
Paradoks yang menarik adalah ketika manusia melakukan kesalahan, kita bisa berempati dan menerima. Namun, ketika kesalahan tersebut berasal dari AI, terutama ketika diiklankan sebagai sesuatu yang objektif dan berbasis data, pengguna sering kali merasa dikhianati.
Hal ini berkaitan dengan fenomena pelanggaran ekspektasi. Kita mengharapkan mesin untuk bersikap logis, akurat, dan sempurna. Ketika kepercayaan itu dilanggar, reaksi psikologis seringkali lebih intens. Bahkan kesalahan kecil dalam algoritma dapat dianggap serius jika pengguna merasa kehilangan kendali atau tidak dapat dijelaskan.
Secara naluriah, kita perlu memahami penyebab suatu kesalahan. Dengan manusia, kita mungkin bertanya mengapa. Dengan AI, jawabannya seringkali tidak ada atau terlalu samar.
Ketika guru, penulis, pengacara, atau desainer melihat AI melakukan sebagian pekerjaan mereka, mereka tidak hanya takut kehilangan pekerjaan tetapi juga khawatir tentang nilai keterampilan dan identitas pribadi mereka.
Ini adalah reaksi alami, yang disebut ancaman identitas. Hal ini dapat mengarah pada penyangkalan, perlawanan, atau pertahanan psikologis. Dalam kasus-kasus ini, kecurigaan bukan lagi reaksi emosional, melainkan mekanisme perlindungan diri.
Kepercayaan tidak datang dari logika saja.
Manusia percaya melalui emosi, gestur, kontak mata, dan empati. AI bisa fasih, bahkan humoris, tetapi tidak tahu cara menciptakan koneksi yang nyata.
Fenomena “uncanny valley” digambarkan oleh para ahli sebagai perasaan tidak nyaman ketika dihadapkan dengan hal-hal yang hampir manusiawi, tetapi tidak memiliki sesuatu yang membuatnya tidak nyata.

Ketika mesin menjadi terlalu manusiawi, perasaan tidak aman menjadi lebih nyata (Foto: Getty).
Dengan AI, ketiadaan emosi membuat banyak orang merasa bingung, tidak yakin apakah harus percaya atau ragu.
Di dunia yang penuh dengan berita palsu, video palsu, dan keputusan algoritmik, perasaan ditinggalkan secara emosional membuat orang-orang waspada terhadap teknologi. Bukan karena AI melakukan kesalahan, tetapi karena kita tidak tahu bagaimana seharusnya bersikap terhadapnya.
Lebih lanjut, kecurigaan terkadang lebih dari sekadar perasaan. Algoritma telah menciptakan bias dalam perekrutan, putusan pidana, dan persetujuan kredit. Bagi mereka yang telah dirugikan oleh sistem data yang tidak transparan, wajar untuk waspada.
Psikolog menyebutnya ketidakpercayaan yang dipelajari. Ketika suatu sistem berulang kali gagal, wajar saja jika kepercayaan akan hilang. Orang tidak akan percaya hanya karena diminta. Kepercayaan harus diraih, bukan dipaksakan.
Agar AI dapat diadopsi secara luas, pengembang perlu menciptakan sistem yang dapat dipahami, dipertanyakan, dan dipertanggungjawabkan. Pengguna perlu dilibatkan dalam pengambilan keputusan, alih-alih hanya mengamati dari pinggir. Kepercayaan hanya dapat benar-benar terjaga ketika orang merasa dihormati dan diberdayakan.
Sumber: https://dantri.com.vn/cong-nghe/vi-sao-tri-tue-nhan-tao-cham-vao-noi-so-sau-nhat-cua-con-nguoi-20251110120843170.htm






Komentar (0)