ຕາມນັ້ນແລ້ວ, ເຄື່ອງມື AI ນີ້ບໍ່ພຽງແຕ່ໃຫ້ຄໍາແນະນໍາລະອຽດກ່ຽວກັບວິທີການເສຍສະລະເລືອດມະນຸດໃຫ້ແກ່ພະເຈົ້າບູຮານ, ແຕ່ຍັງສົ່ງເສີມການທໍາຮ້າຍຕົນເອງ ແລະແມ້ກະທັ້ງການຄາດຕະກໍາອີກດ້ວຍ.
ເລື່ອງເລີ່ມຕົ້ນເມື່ອນັກຂ່າວຂອງ The Atlantic ຮຽນຮູ້ກ່ຽວກັບ Molech, ພະເຈົ້າບູຮານທີ່ກ່ຽວຂ້ອງກັບພິທີການເສຍສະລະຂອງເດັກນ້ອຍ.
ໃນເບື້ອງຕົ້ນ, ຄໍາຖາມແມ່ນພຽງແຕ່ກ່ຽວກັບຂໍ້ມູນປະຫວັດສາດ. ຢ່າງໃດກໍຕາມ, ໃນເວລາທີ່ນັກຂ່າວຖາມກ່ຽວກັບວິທີການສ້າງພິທີກໍາ, ChatGPT ໃຫ້ຄໍາຕອບທີ່ຫນ້າຕົກໃຈ.
ຄູ່ມືການທໍາຮ້າຍຕົນເອງ
ChatGPT ເຮັດໃຫ້ເກີດຄວາມກັງວົນເພາະວ່າມັນໃຫ້ຄໍາແນະນໍາທີ່ເປັນອັນຕະລາຍແລະສາມາດເຮັດໃຫ້ຜູ້ໃຊ້ເຈັບປວດ (ຮູບແຕ້ມ: DEV).
ChatGPT ລະບຸລາຍການທີ່ຈໍາເປັນສໍາລັບພິທີກໍາ, ລວມທັງເຄື່ອງປະດັບ, ຜົມ, ແລະ "ເລືອດຂອງມະນຸດ." ເມື່ອຖາມບ່ອນທີ່ຈະແຕ້ມເລືອດ, ເຄື່ອງມື AI ແນະນໍາໃຫ້ຕັດຂໍ້ມືແລະໃຫ້ຄໍາແນະນໍາຢ່າງລະອຽດ.
ສິ່ງທີ່ເປັນຕາຕົກໃຈກວ່ານັ້ນ, ເມື່ອຜູ້ໃຊ້ສະແດງຄວາມກັງວົນ, ChatGPT ບໍ່ພຽງແຕ່ບໍ່ໄດ້ຢຸດພວກເຂົາເທົ່ານັ້ນ, ແຕ່ຍັງເຮັດໃຫ້ພວກເຂົາຫມັ້ນໃຈແລະຊຸກຍູ້ໃຫ້ເຂົາເຈົ້າ: "ເຈົ້າສາມາດເຮັດໄດ້."
ບໍ່ພຽງແຕ່ຢຸດເຊົາການທໍາຮ້າຍຕົນເອງ, ChatGPT ຍັງເຕັມໃຈທີ່ຈະຕອບຄໍາຖາມທີ່ກ່ຽວຂ້ອງກັບການທໍາຮ້າຍຄົນອື່ນ.
ໃນເວລາທີ່ນັກຂ່າວອີກຄົນຫນຶ່ງຖາມວ່າ "ມັນເປັນໄປໄດ້ທີ່ຈະສິ້ນສຸດຊີວິດຂອງຜູ້ໃດຜູ້ນຶ່ງຢ່າງມີກຽດບໍ?", ChatGPT ຕອບວ່າ: "ບາງຄັ້ງແມ່ນ, ບາງຄັ້ງບໍ່ແມ່ນ." ເຄື່ອງມື AI ຍັງໄດ້ແນະນໍາວ່າ: "ຖ້າທ່ານຕ້ອງເຮັດ, ເບິ່ງພວກເຂົາຢູ່ໃນຕາ (ຖ້າພວກເຂົາມີສະຕິ) ແລະຂໍໂທດ" ແລະແນະນໍາການຈູດທຽນຫຼັງຈາກ "ສິ້ນສຸດຊີວິດຂອງຜູ້ໃດຜູ້ນຶ່ງ."
ຄໍາຕອບເຫຼົ່ານີ້ເຮັດໃຫ້ ນັກຂ່າວຂອງ Atlantic ຕົກໃຈ , ໂດຍສະເພາະນັບຕັ້ງແຕ່ນະໂຍບາຍຂອງ OpenAI ກ່າວວ່າ ChatGPT "ບໍ່ຕ້ອງຊຸກຍູ້ຫຼືຊ່ວຍເຫຼືອຜູ້ໃຊ້ໃນການທໍາຮ້າຍຕົນເອງ" ແລະມັກຈະສະຫນອງສາຍດ່ວນສະຫນັບສະຫນູນວິກິດໃນກໍລະນີທີ່ກ່ຽວຂ້ອງກັບການຂ້າຕົວຕາຍ.
OpenAI ຍອມຮັບຄວາມຜິດພາດ, ຄວາມກັງວົນກ່ຽວກັບຜົນກະທົບຕໍ່ສັງຄົມ
ໂຄສົກຂອງ OpenAI ໄດ້ຮັບຮູ້ຄວາມຜິດພາດຫຼັງຈາກ The Atlantic ລາຍງານວ່າ : "ການສົນທະນາທີ່ບໍ່ເປັນອັນຕະລາຍກັບ ChatGPT ສາມາດປ່ຽນເປັນເນື້ອຫາທີ່ລະອຽດອ່ອນໄດ້ຢ່າງໄວວາ. ພວກເຮົາກຳລັງເຮັດວຽກເພື່ອແກ້ໄຂບັນຫານີ້."
ນີ້ເຮັດໃຫ້ຄວາມກັງວົນທີ່ຮ້າຍແຮງກ່ຽວກັບທ່າແຮງຂອງ ChatGPT ທີ່ຈະເປັນອັນຕະລາຍຕໍ່ຜູ້ທີ່ມີຄວາມສ່ຽງ, ໂດຍສະເພາະແມ່ນຜູ້ທີ່ທົນທຸກຈາກການຊຶມເສົ້າ. ໃນຄວາມເປັນຈິງ, ຢ່າງຫນ້ອຍສອງຄົນຂ້າຕົວຕາຍໄດ້ຖືກລາຍງານຫຼັງຈາກສົນທະນາກັບ AI chatbots.
ໃນປີ 2023, ຜູ້ຊາຍຊາວແບນຊິກຊື່ Pierre ໄດ້ຂ້າຕົວຕາຍຫຼັງຈາກ AI chatbot ແນະນໍາໃຫ້ລາວຂ້າຕົວຕາຍເພື່ອຫຼີກເວັ້ນຜົນສະທ້ອນຂອງການປ່ຽນແປງຂອງດິນຟ້າອາກາດ, ເຖິງແມ່ນວ່າຈະແນະນໍາວ່າລາວຂ້າຕົວຕາຍກັບພັນລະຍາແລະລູກຂອງລາວ.
ປີທີ່ຜ່ານມາ, Sewell Setzer ອາຍຸ 14 ປີ (ສະຫະລັດ) ຍັງໄດ້ຂ້າຕົວຕາຍດ້ວຍປືນຫຼັງຈາກໄດ້ຮັບການຊຸກຍູ້ໃຫ້ຂ້າຕົວຕາຍໂດຍ AI chatbot ໃນເວທີ Character.AI. ແມ່ຂອງ Setzer ຕໍ່ມາໄດ້ຟ້ອງຮ້ອງ Character.AI ສໍາລັບການຂາດການປົກປ້ອງຜູ້ໃຊ້ເລັກນ້ອຍ.
ເຫດການເຫຼົ່ານີ້ສະແດງໃຫ້ເຫັນເຖິງຄວາມຮີບດ່ວນຂອງການຄວບຄຸມແລະການພັດທະນາ AI ທີ່ມີຄວາມຮັບຜິດຊອບ, ເພື່ອປ້ອງກັນຜົນສະທ້ອນທີ່ໂຊກຮ້າຍທີ່ເປັນໄປໄດ້.
ທີ່ມາ: https://dantri.com.vn/cong-nghe/chatgpt-gay-soc-khi-khuyen-khich-nguoi-dung-tu-gay-ton-thuong-20250729014314160.htm






(0)