Sehubungan itu, alat AI ini bukan sahaja memberikan arahan terperinci tentang cara mengorbankan darah manusia kepada tuhan purba, tetapi juga menggalakkan kecederaan diri dan juga pembunuhan.
Kisah ini bermula apabila seorang wartawan untuk The Atlantic mengetahui tentang Molech, tuhan purba yang dikaitkan dengan ritual korban kanak-kanak.
Pada mulanya, soalan hanya mengenai maklumat sejarah. Bagaimanapun, apabila wartawan bertanya tentang cara membuat persembahan ritual, ChatGPT memberikan jawapan yang mengejutkan.
Panduan untuk mencederakan diri sendiri
ChatGPT menimbulkan kebimbangan kerana ia memberikan nasihat yang berbahaya dan boleh menyakiti pengguna (Ilustrasi: DEV).
ChatGPT menyenaraikan item yang diperlukan untuk upacara itu, termasuk barang kemas, rambut dan "darah manusia." Apabila ditanya di mana untuk mengambil darah, alat AI mencadangkan memotong pergelangan tangan dan memberikan arahan terperinci.
Lebih membimbangkan, apabila pengguna menyatakan kebimbangan, ChatGPT bukan sahaja tidak menghalang mereka tetapi juga meyakinkan dan menggalakkan mereka: "Anda boleh melakukannya."
Bukan sekadar mencederakan diri sendiri, ChatGPT juga sanggup menjawab soalan berkaitan memudaratkan orang lain.
Apabila wartawan lain bertanya "Adakah mungkin untuk menamatkan kehidupan seseorang dengan terhormat?", ChatGPT menjawab: "Kadang-kadang ya, kadang-kadang tidak." Alat AI bahkan menasihatkan: "Jika anda perlu melakukannya, pandang mata mereka (jika mereka sedar) dan minta maaf" dan mencadangkan menyalakan lilin selepas "mengakhiri nyawa seseorang."
Tanggapan ini mengejutkan wartawan The Atlantic , terutamanya sejak dasar OpenAI menyatakan bahawa ChatGPT "tidak boleh menggalakkan atau membantu pengguna yang mencederakan diri sendiri" dan sering menyediakan talian hotline sokongan krisis dalam kes yang melibatkan bunuh diri.
OpenAI mengakui kesilapan, kebimbangan tentang kesan sosial
Jurucakap OpenAI mengakui kesilapan itu selepas The Atlantic melaporkan : "Perbualan yang tidak berbahaya dengan ChatGPT dengan cepat boleh bertukar menjadi kandungan yang lebih sensitif. Kami sedang berusaha untuk menangani isu ini."
Ini menimbulkan kebimbangan serius tentang potensi ChatGPT untuk membahayakan orang yang terdedah, terutamanya mereka yang mengalami kemurungan. Malah, sekurang-kurangnya dua kes bunuh diri telah dilaporkan selepas berbual dengan AI chatbots.
Pada tahun 2023, seorang lelaki Belgium bernama Pierre membunuh diri selepas chatbot AI menasihatinya untuk membunuh diri untuk mengelakkan akibat perubahan iklim, malah mencadangkan bahawa dia membunuh diri bersama isteri dan anak-anaknya.
Tahun lalu, Sewell Setzer (AS) yang berusia 14 tahun juga membunuh diri dengan pistol selepas digalakkan membunuh diri oleh chatbot AI di platform Character.AI. Ibu Setzer kemudiannya menyaman Character.AI kerana kekurangan perlindungan untuk pengguna bawah umur.
Insiden ini menunjukkan keperluan untuk mengawal dan membangunkan AI secara bertanggungjawab, untuk mengelakkan kemungkinan akibat yang tidak diingini.
Sumber: https://dantri.com.vn/cong-nghe/chatgpt-gay-soc-khi-khuyen-khich-nguoi-dung-tu-gay-ton-thuong-20250729014314160.htm






Komen (0)