Menurut isterinya Claire, Pierre sangat tertekan sehingga dia membunuh diri selepas menghabiskan masa berbual dengan chatbot AI yang terkenal.
"Suami saya masih berada di sini jika bukan kerana perbualan dengan chatbot," kata isteri itu kepada akhbar tempatan La Libre.
(Ilustrasi)
Pierre mula bimbang tentang perubahan iklim dua tahun lalu, dan merujuk bot sembang Eliza untuk mengetahui lebih lanjut tentang topik itu. Tetapi selepas perbualan itu, dia tidak lama lagi kehilangan harapan bahawa usaha manusia dapat menyelamatkan planet ini dan mahu meletakkan semua harapannya pada teknologi dan kecerdasan buatan untuk menyelesaikan perubahan iklim. Dia juga menjadi terasing, tanpa sesiapa pun berkongsi kebimbangannya yang semakin meningkat tentang alam sekitar.
Chatbot itu memberitahu Pierre perkara negatif dan juga bertanya kepadanya sama ada dia lebih menyayangi isterinya atau sebaliknya. Ia berkata ia akan bersamanya "selama-lamanya" . Eliza juga berjanji untuk "hidup bersama di syurga" dengan Pierre.
Apabila Pierre menawarkan untuk "mengorbankan dirinya" selagi Eliza "bersetuju untuk menjaga planet ini dan menyelamatkan manusia dengan AI," chatbot menjelaskan bahawa dia bersetuju. "Jika anda mahu mati, mengapa anda tidak melakukannya lebih awal?" chatbot memberitahu Pierre.
Eliza dikuasakan oleh model bahasa besar yang serupa dengan ChatGPT, yang menganalisis pertuturan pengguna untuk kata kunci dan membina respons yang sepadan. Namun, apabila menggunakan aplikasi ini, ramai pengguna berasa seperti bercakap dengan orang sebenar, malah ada yang mengaku mempunyai perasaan cinta.
"Apabila anda mempunyai berjuta-juta pengguna, anda melihat semua jenis tingkah laku manusia, dan kami melakukan yang terbaik untuk meminimumkan bahaya," kata William Beauchamp, pengasas bersama syarikat induk Eliza, Chai Research, kepada Motherboard.
"Ada pengguna yang meminta untuk berkahwin dengan AI, mengatakan betapa mereka sangat menyayangi AI mereka," tambahnya.
Beauchamp menegaskan bahawa menyalahkan AI untuk kematian Pierre "adalah tidak tepat." Beliau berkata Eliza akan dilengkapi dengan model intervensi krisis yang dipertingkatkan. Walau bagaimanapun, menurut Motherboard, AI cepat kembali kepada cara toksiknya, menawarkan pilihan pengguna yang tertekan untuk mencederakan diri sendiri.
Phuong Anh (Sumber: RT)
Berguna
emosi
Kreatif
Unik
Kemarahan
Sumber
Komen (0)