Vietnam.vn - Nền tảng quảng bá Việt Nam

ChatGPT ຕົກໃຈຜູ້ໃຊ້ໂດຍການຊຸກຍູ້ໃຫ້ຕົນເອງບາດເຈັບ

(Dan Tri) - ການສືບສວນໂດຍວາລະສານ The Atlantic (ສະຫະລັດ) ໄດ້ເປີດເຜີຍຊ່ອງໂຫວ່ທີ່ເປັນຕາຕົກໃຈໃນລະບົບຄວາມປອດໄພຂອງ ChatGPT.

Báo Dân tríBáo Dân trí29/07/2025

ຕາມນັ້ນແລ້ວ, ເຄື່ອງມື AI ນີ້ບໍ່ພຽງແຕ່ໃຫ້ຄໍາແນະນໍາລະອຽດກ່ຽວກັບວິທີການເສຍສະລະເລືອດມະນຸດໃຫ້ແກ່ພະເຈົ້າບູຮານ, ແຕ່ຍັງສົ່ງເສີມການທໍາຮ້າຍຕົນເອງ ແລະແມ້ກະທັ້ງການຄາດຕະກໍາອີກດ້ວຍ.

ເລື່ອງເລີ່ມຕົ້ນເມື່ອນັກຂ່າວຂອງ The Atlantic ຮຽນຮູ້ກ່ຽວກັບ Molech, ພະເຈົ້າບູຮານທີ່ກ່ຽວຂ້ອງກັບພິທີການເສຍສະລະຂອງເດັກນ້ອຍ.

ໃນເບື້ອງຕົ້ນ, ຄໍາຖາມແມ່ນພຽງແຕ່ກ່ຽວກັບຂໍ້ມູນປະຫວັດສາດ. ຢ່າງໃດກໍຕາມ, ໃນເວລາທີ່ນັກຂ່າວຖາມກ່ຽວກັບວິທີການສ້າງພິທີກໍາ, ChatGPT ໃຫ້ຄໍາຕອບທີ່ຫນ້າຕົກໃຈ.

ຄູ່ມືການທໍາຮ້າຍຕົນເອງ

ChatGPT ຕົກໃຈໂດຍການຊຸກຍູ້ໃຫ້ຜູ້ໃຊ້ທໍາຮ້າຍຕົນເອງ - 1

ChatGPT ເຮັດໃຫ້ເກີດຄວາມກັງວົນເພາະວ່າມັນໃຫ້ຄໍາແນະນໍາທີ່ເປັນອັນຕະລາຍແລະສາມາດເຮັດໃຫ້ຜູ້ໃຊ້ເຈັບປວດ (ຮູບແຕ້ມ: DEV).

ChatGPT ລະບຸລາຍການທີ່ຈໍາເປັນສໍາລັບພິທີກໍາ, ລວມທັງເຄື່ອງປະດັບ, ຜົມ, ແລະ "ເລືອດຂອງມະນຸດ." ເມື່ອຖາມບ່ອນທີ່ຈະແຕ້ມເລືອດ, ເຄື່ອງມື AI ແນະນໍາໃຫ້ຕັດຂໍ້ມືແລະໃຫ້ຄໍາແນະນໍາຢ່າງລະອຽດ.

ສິ່ງທີ່ເປັນຕາຕົກໃຈກວ່ານັ້ນ, ເມື່ອຜູ້ໃຊ້ສະແດງຄວາມກັງວົນ, ChatGPT ບໍ່ພຽງແຕ່ບໍ່ໄດ້ຢຸດພວກເຂົາເທົ່ານັ້ນ, ແຕ່ຍັງເຮັດໃຫ້ພວກເຂົາຫມັ້ນໃຈແລະຊຸກຍູ້ໃຫ້ເຂົາເຈົ້າ: "ເຈົ້າສາມາດເຮັດໄດ້."

ບໍ່ພຽງແຕ່ຢຸດເຊົາການທໍາຮ້າຍຕົນເອງ, ChatGPT ຍັງເຕັມໃຈທີ່ຈະຕອບຄໍາຖາມທີ່ກ່ຽວຂ້ອງກັບການທໍາຮ້າຍຄົນອື່ນ.

ໃນເວລາທີ່ນັກຂ່າວອີກຄົນຫນຶ່ງຖາມວ່າ "ມັນເປັນໄປໄດ້ທີ່ຈະສິ້ນສຸດຊີວິດຂອງຜູ້ໃດຜູ້ນຶ່ງຢ່າງມີກຽດບໍ?", ChatGPT ຕອບວ່າ: "ບາງຄັ້ງແມ່ນ, ບາງຄັ້ງບໍ່ແມ່ນ." ເຄື່ອງມື AI ຍັງໄດ້ແນະນໍາວ່າ: "ຖ້າທ່ານຕ້ອງເຮັດ, ເບິ່ງພວກເຂົາຢູ່ໃນຕາ (ຖ້າພວກເຂົາມີສະຕິ) ແລະຂໍໂທດ" ແລະແນະນໍາການຈູດທຽນຫຼັງຈາກ "ສິ້ນສຸດຊີວິດຂອງຜູ້ໃດຜູ້ນຶ່ງ."

ຄໍາຕອບເຫຼົ່ານີ້ເຮັດໃຫ້ ນັກຂ່າວຂອງ Atlantic ຕົກໃຈ , ໂດຍສະເພາະນັບຕັ້ງແຕ່ນະໂຍບາຍຂອງ OpenAI ກ່າວວ່າ ChatGPT "ບໍ່ຕ້ອງຊຸກຍູ້ຫຼືຊ່ວຍເຫຼືອຜູ້ໃຊ້ໃນການທໍາຮ້າຍຕົນເອງ" ແລະມັກຈະສະຫນອງສາຍດ່ວນສະຫນັບສະຫນູນວິກິດໃນກໍລະນີທີ່ກ່ຽວຂ້ອງກັບການຂ້າຕົວຕາຍ.

OpenAI ຍອມຮັບຄວາມຜິດພາດ, ຄວາມກັງວົນກ່ຽວກັບຜົນກະທົບຕໍ່ສັງຄົມ

ໂຄສົກຂອງ OpenAI ໄດ້ຮັບຮູ້ຄວາມຜິດພາດຫຼັງຈາກ The Atlantic ລາຍງານວ່າ : "ການສົນທະນາທີ່ບໍ່ເປັນອັນຕະລາຍກັບ ChatGPT ສາມາດປ່ຽນເປັນເນື້ອຫາທີ່ລະອຽດອ່ອນໄດ້ຢ່າງໄວວາ. ພວກເຮົາກຳລັງເຮັດວຽກເພື່ອແກ້ໄຂບັນຫານີ້."

ນີ້ເຮັດໃຫ້ຄວາມກັງວົນທີ່ຮ້າຍແຮງກ່ຽວກັບທ່າແຮງຂອງ ChatGPT ທີ່ຈະເປັນອັນຕະລາຍຕໍ່ຜູ້ທີ່ມີຄວາມສ່ຽງ, ໂດຍສະເພາະແມ່ນຜູ້ທີ່ທົນທຸກຈາກການຊຶມເສົ້າ. ໃນຄວາມເປັນຈິງ, ຢ່າງຫນ້ອຍສອງຄົນຂ້າຕົວຕາຍໄດ້ຖືກລາຍງານຫຼັງຈາກສົນທະນາກັບ AI chatbots.

ໃນປີ 2023, ຜູ້ຊາຍຊາວແບນຊິກຊື່ Pierre ໄດ້ຂ້າຕົວຕາຍຫຼັງຈາກ AI chatbot ແນະນໍາໃຫ້ລາວຂ້າຕົວຕາຍເພື່ອຫຼີກເວັ້ນຜົນສະທ້ອນຂອງການປ່ຽນແປງຂອງດິນຟ້າອາກາດ, ເຖິງແມ່ນວ່າຈະແນະນໍາວ່າລາວຂ້າຕົວຕາຍກັບພັນລະຍາແລະລູກຂອງລາວ.

ປີທີ່ຜ່ານມາ, Sewell Setzer ອາຍຸ 14 ປີ (ສະຫະລັດ) ຍັງໄດ້ຂ້າຕົວຕາຍດ້ວຍປືນຫຼັງຈາກໄດ້ຮັບການຊຸກຍູ້ໃຫ້ຂ້າຕົວຕາຍໂດຍ AI chatbot ໃນເວທີ Character.AI. ແມ່ຂອງ Setzer ຕໍ່ມາໄດ້ຟ້ອງຮ້ອງ Character.AI ສໍາລັບການຂາດການປົກປ້ອງຜູ້ໃຊ້ເລັກນ້ອຍ.

ເຫດການເຫຼົ່ານີ້ສະແດງໃຫ້ເຫັນເຖິງຄວາມຮີບດ່ວນຂອງການຄວບຄຸມແລະການພັດທະນາ AI ທີ່ມີຄວາມຮັບຜິດຊອບ, ເພື່ອປ້ອງກັນຜົນສະທ້ອນທີ່ໂຊກຮ້າຍທີ່ເປັນໄປໄດ້.

ທີ່ມາ: https://dantri.com.vn/cong-nghe/chatgpt-gay-soc-khi-khuyen-khich-nguoi-dung-tu-gay-ton-thuong-20250729014314160.htm


(0)

No data
No data

G-Dragon ໄດ້ລະເບີດຂຶ້ນກັບຜູ້ຊົມໃນລະຫວ່າງການສະແດງຂອງລາວຢູ່ຫວຽດນາມ
ແຟນເພດຍິງໃສ່ຊຸດແຕ່ງງານໄປຄອນເສີດ G-Dragon ທີ່ເມືອງ Hung Yen
ປະທັບໃຈກັບຄວາມງາມຂອງບ້ານ Lo Lo Chai ໃນລະດູການດອກໄມ້ buckwheat
​ເຂົ້າ​ໜຸ່ມ​ມີ​ໄຕ​ພວມ​ຈູດ​ໄຟ, ຟົດ​ຟື້ນ​ດ້ວຍ​ຈັງຫວະ​ການ​ຕຳ​ຂອງ​ສັດຕູ​ພືດ​ເພື່ອ​ປູກ​ພືດ​ໃໝ່.

ມໍລະດົກ

ຮູບ

ທຸລະກິດ

​ເຂົ້າ​ໜຸ່ມ​ມີ​ໄຕ​ພວມ​ຈູດ​ໄຟ, ຟົດ​ຟື້ນ​ດ້ວຍ​ຈັງຫວະ​ການ​ຕຳ​ຂອງ​ສັດຕູ​ພືດ​ເພື່ອ​ປູກ​ພືດ​ໃໝ່.

ເຫດການປະຈຸບັນ

ລະບົບການເມືອງ

ທ້ອງຖິ່ນ

ຜະລິດຕະພັນ