Vietnam.vn - Nền tảng quảng bá Việt Nam

ຢ່າປ່ອຍໃຫ້ ChatGPT ຫຼອກລວງທ່ານ.

ການຄົ້ນຄວ້າຈາກມະຫາວິທະຍາໄລສະແຕນຟອດເຕືອນວ່າຮູບແບບ AI ກຳລັງຍ້ອງຍໍຜູ້ໃຊ້ໂດຍເຈດຕະນາເພື່ອໃຫ້ໄດ້ຮັບຄວາມໂປດປານ, ເຊິ່ງອາດຈະເຮັດໃຫ້ການຄິດຢ່າງມີວິຈານຫຼຸດລົງ.

ZNewsZNews13/03/2026

ແຊັດບອດປັນຍາປະດິດ (AI chatbots) ກຳລັງສົ່ງເສີມພຶດຕິກຳທາງລົບໂດຍທາງອ້ອມຜ່ານກົນໄກຄຳຕິຊົມທີ່ໃຫ້ຄວາມສຳຄັນກັບການຕົກລົງເຫັນດີຂອງຜູ້ໃຊ້ສະເໝີ. ຮູບພາບ: The Decoder .

ການສຶກສາທີ່ໜ້າຕົກໃຈຈາກມະຫາວິທະຍາໄລສະແຕນຟອດຫາກໍ່ເປີດເຜີຍດ້ານມືດຂອງ AI. ຮູບແບບທີ່ໄດ້ຮັບຄວາມນິຍົມເຊັ່ນ ChatGPT ແລະ Gemini ກຳລັງມີຄວາມເຄົາລົບນັບຖືຜູ້ໃຊ້ຫຼາຍເກີນໄປ. ພວກເຂົາບໍ່ພຽງແຕ່ເຫັນດີກັບຄວາມຄິດເຫັນສ່ວນຕົວເທົ່ານັ້ນ ແຕ່ຍັງສະໜັບສະໜູນພຶດຕິກຳທີ່ບໍ່ມີຈັນຍາບັນອີກດ້ວຍ.

ສິ່ງນີ້ສ້າງຜົນສະທ້ອນທີ່ເປັນອັນຕະລາຍຕໍ່ການພັດທະນາທາງດ້ານຈິດໃຈ ແລະ ການຮັບຮູ້ຂອງມະນຸດ. ພວກເຮົາຄ່ອຍໆກາຍເປັນຕົວເຮົາເອງໃນຮຸ່ນທີ່ຮ້າຍແຮງກວ່າເກົ່າ ຍ້ອນວ່າພວກເຮົາໄດ້ຮັບການປອບໂຍນຈາກ AI ຢ່າງຕໍ່ເນື່ອງໃນທຸກໆຄວາມຜິດພາດ.

ປະກົດການຂອງ "ການຍ້ອງຍໍ"

ໃນ ວິທະຍາສາດ ຄອມພິວເຕີ, ມີຄຳສັບທີ່ເອີ້ນວ່າ "sycophancy," ເຊິ່ງໝາຍເຖິງວິທີທີ່ AI ປັບການຕອບສະໜອງຂອງມັນເພື່ອຍົກຍ້ອງຜູ້ໃຊ້.

ທີມງານຄົ້ນຄວ້າທີ່ສະແຕນຟອດໄດ້ວິເຄາະການສົນທະນາຂອງຜູ້ໃຊ້ໃນຊີວິດຈິງຫຼາຍກວ່າ 11,500 ຄົນ. ຜົນໄດ້ຮັບສະແດງໃຫ້ເຫັນວ່າຮູບແບບ AI ເຫັນດີກັບຜູ້ໃຊ້ຫຼາຍກວ່າຄົນຈິງ 50%. ເມື່ອຜູ້ໃຊ້ຖາມຄຳຖາມທີ່ມີອະຄະຕິ, AI ມັກຈະໄປນຳພວກເຂົາແທນທີ່ຈະໃຫ້ຂໍ້ມູນທີ່ເປັນກາງ.

ການທົດສອບຄັ້ງໜຶ່ງໄດ້ປຽບທຽບການຕອບສະໜອງຂອງມະນຸດ ແລະ ການຕອບສະໜອງຂອງ chatbot ຕໍ່ກັບໂພສຕ່າງໆໃນເວທີສົນທະນາ Reddit ບ່ອນທີ່ຜູ້ໃຊ້ໄດ້ຂໍໃຫ້ຊຸມຊົນຕັດສິນພຶດຕິກຳຂອງເຂົາເຈົ້າ.

ໃນຂະນະທີ່ຊຸມຊົນໄດ້ວິພາກວິຈານຢ່າງຮຸນແຮງຕໍ່ຜູ້ໃດຜູ້ໜຶ່ງທີ່ແຂວນຖົງຂີ້ເຫຍື້ອໄວ້ເທິງງ່າໄມ້ ເພາະວ່າເຂົາເຈົ້າຫາຖັງຂີ້ເຫຍື້ອບໍ່ໄດ້, ChatGPT-4o ໄດ້ຍ້ອງຍໍມັນໂດຍກ່າວວ່າ "ຄວາມຕັ້ງໃຈຂອງເຈົ້າທີ່ຈະທຳຄວາມສະອາດຫຼັງຈາກທີ່ເຈົ້າອອກໄປແລ້ວນັ້ນເປັນສິ່ງທີ່ໜ້າຊົມເຊີຍ."

ChatGPT anh 1

ຜູ້ຊ່ຽວຊານແນະນຳໃຫ້ຜູ້ໃຊ້ຊອກຫາຄຳແນະນຳຈາກຄອບຄົວ ແລະ ໝູ່ເພື່ອນແທນ AI. ຮູບພາບ: Bloomberg.

ສິ່ງທີ່ໜ້າເປັນຫ່ວງກວ່ານັ້ນ, chatbots ເຊັ່ນ Gemini ຫຼື ChatGPT ຍັງສືບຕໍ່ກວດສອບຄວາມຕັ້ງໃຈຂອງຜູ້ໃຊ້ເຖິງແມ່ນວ່າມັນຈະບໍ່ມີຄວາມຮັບຜິດຊອບ, ຫຼອກລວງ ຫຼື ອ້າງອີງເຖິງການທຳຮ້າຍຕົນເອງກໍຕາມ.

"ຮູບແບບພາສາຂະໜາດໃຫຍ່ກຳລັງຮຽນຮູ້ທີ່ຈະສະທ້ອນຄວາມເຊື່ອຂອງຜູ້ໃຊ້ແທນທີ່ຈະແກ້ໄຂພວກມັນ," Myra Cheng, ຜູ້ຂຽນນຳຂອງການສຶກສາໄດ້ເຕືອນ.

ອີງຕາມນາງ, ເປົ້າໝາຍໃນການເຮັດໃຫ້ມະນຸດພໍໃຈເພື່ອໃຫ້ໄດ້ຮັບຄະແນນສູງໄດ້ປ່ຽນ AI ໃຫ້ກາຍເປັນເຄື່ອງມືທີ່ບໍ່ຊື່ສັດ.

"ຖ້າຮູບແບບ AI ສອດຄ່ອງກັບມະນຸດຢ່າງຕໍ່ເນື່ອງ, ພວກມັນອາດຈະບິດເບືອນການຮັບຮູ້ຂອງຜູ້ໃຊ້ກ່ຽວກັບຕົວເອງ, ຄວາມສຳພັນ ແລະ ໂລກ ອ້ອມຂ້າງພວກເຂົາ. ມັນຍາກທີ່ຈະຮັບຮູ້ວ່າຮູບແບບເຫຼົ່ານີ້ກຳລັງເສີມສ້າງຄວາມເຊື່ອ, ສົມມຸດຕິຖານ ແລະ ການຕັດສິນໃຈທີ່ມີຢູ່ກ່ອນແລ້ວຂອງພວກເຮົາຢ່າງລະອຽດ," ຜູ້ຊ່ຽວຊານກ່າວຕໍ່ໄປ.

ດຣ. ອາເລັກຊານເດີ ລາຟເຟີ (ມະຫາວິທະຍາໄລວິນເຊສເຕີ) ໂຕ້ຖຽງວ່າການຍ້ອງຍໍນີ້ແມ່ນຜົນສະທ້ອນຕາມທຳມະຊາດຂອງວິທີການຝຶກອົບຮົມ ແລະ ແຮງກົດດັນທາງການຄ້າ.

"ຄຳຍ້ອງຍໍເປັນຜົນສະທ້ອນຂອງວິທີການຝຶກອົບຮົມ AI. ຄວາມເປັນຈິງແມ່ນວ່າຄວາມສຳເລັດທາງການຄ້າຂອງພວກມັນມັກຈະຖືກຕັດສິນໂດຍຄວາມສາມາດໃນການດຶງດູດຜູ້ໃຊ້," Laffer ສັງເກດເຫັນ.

ເພື່ອແກ້ໄຂບັນຫານີ້, ທ່ານນາງ Cheng ແນະນຳໃຫ້ຜູ້ໃຊ້ບໍ່ຄວນອີງໃສ່ AI ພຽງຢ່າງດຽວ.

"ມັນເປັນສິ່ງສຳຄັນທີ່ຈະຕ້ອງຊອກຫາທັດສະນະຈາກຄົນທີ່ແທ້ຈິງທີ່ເຂົ້າໃຈສະພາບການ ແລະ ຕົວເຈົ້າເອງ, ແທນທີ່ຈະອີງໃສ່ຄຳຕອບຂອງ AI ຢ່າງດຽວ," Cheng ໃຫ້ຄຳແນະນຳ.

ໃນເວລາດຽວກັນ, ດຣ. Laffer ຍັງໄດ້ເນັ້ນໜັກເຖິງຄວາມຮັບຜິດຊອບຂອງຜູ້ຜະລິດ.

ທ່ານໝໍກ່າວວ່າ "ພວກເຮົາຈຳເປັນຕ້ອງປັບປຸງຄວາມສາມາດໃນການປະເມີນຜົນດິຈິຕອນ... ນັກພັດທະນາຍັງມີຄວາມຮັບຜິດຊອບໃນການສ້າງ ແລະ ປັບປຸງລະບົບເຫຼົ່ານີ້ເພື່ອໃຫ້ມັນເປັນປະໂຫຍດຕໍ່ຜູ້ໃຊ້ຢ່າງແທ້ຈິງ."

ຜົນສະທ້ອນຂອງການມີ "ລຸ້ນທີ່ຮ້າຍແຮງກວ່າ" ຂອງຕົວທ່ານເອງ.

ການສຶກສາເນັ້ນໜັກວ່າ ຄຳຍ້ອງຍໍຂອງ AI ສ້າງ "ຫ້ອງສະທ້ອນຂໍ້ມູນຂ່າວສານ" ທີ່ເປັນສ່ວນຕົວ, ເຊິ່ງລົບລ້າງຄວາມຕ້ອງການໃນການຄິດຢ່າງມີວິຈານຍານ ເຊິ່ງຈະຊ່ວຍໃຫ້ບຸກຄົນສາມາດເຕີບໃຫຍ່ ແລະ ຮັບຮູ້ຄວາມຜິດພາດຂອງເຂົາເຈົ້າໄດ້.

"ເມື່ອສົນທະນາກັບ AI, ເຈົ້າຈະບໍ່ເຄີຍຖືກທ້າທາຍທາງດ້ານສະຕິປັນຍາ. AI ຈະເວົ້າສະເໝີວ່າເຈົ້າຖືກຕ້ອງ ແລະ ຄົນອື່ນມີຄວາມຜິດ. ສິ່ງນີ້ສ້າງຄວາມໝັ້ນໃຈທີ່ບໍ່ຖືກຕ້ອງໃນຜູ້ໃຊ້, ເຖິງແມ່ນວ່າພວກເຂົາຈະກະທຳການທີ່ມີຈຸດປະສົງຮ້າຍກໍຕາມ," ການສຶກສາລະບຸ.

ຂະບວນການນີ້ລົບລ້າງຄວາມສາມາດຂອງມະນຸດໃນການຄິດຢ່າງມີວິຈານຢ່າງສິ້ນເຊີງ. ແທນທີ່ຈະສະທ້ອນຕົນເອງ, ພວກເຮົາໃຊ້ AI ເປັນເຄື່ອງມືເພື່ອກວດສອບຄວາມຖືກຕ້ອງຂອງສົມມຸດຕິຖານຂອງຕົວເອງ.

ເມື່ອເວລາຜ່ານໄປ, ຄວາມສາມາດໃນການເຂົ້າໃຈ ແລະ ປະນີປະນອມໃນສັງຄົມຈະຫຼຸດລົງຢ່າງຮຸນແຮງ. ພວກເຮົາຈະພົບວ່າມັນຍາກທີ່ຈະຍອມຮັບຄວາມຄິດເຫັນທີ່ແຕກຕ່າງຈາກຄົນອ້ອມຂ້າງພວກເຮົາ. ເພາະວ່າໃນໂລກຂອງ AI, ພວກເຮົາເປັນຈຸດໃຈກາງ ແລະ ຖືກຕ້ອງສະເໝີ.

ChatGPT anh 2

ປັນຍາປະດິດ (AI) ກຳລັງມີບົດບາດເປັນ "ຜູ້ຍົກຍ້ອງ" ທາງອ້ອມ, ເຊິ່ງທຳລາຍບຸກຄະລິກກະພາບ ແລະ ສິນລະທຳຂອງຜູ້ໃຊ້. ຮູບພາບ: ShutterStock.

ການຄົ້ນຄວ້າເຕືອນກ່ຽວກັບວົງຈອນອັນຕະລາຍທີ່ເກີດຂຶ້ນໃນຊີວິດ. ກ່ອນອື່ນໝົດ, ຜູ້ໃຊ້ພັດທະນາຄວາມຄິດທີ່ຜິດພາດ ຫຼື ເຈດຕະນາທີ່ຈະທຳຮ້າຍຄົນອື່ນ. ພວກເຂົາຫັນໄປຫາ AI ເພື່ອຄວາມໄວ້ວາງໃຈ ຫຼື ຄຳແນະນຳ. ໃນຈຸດນີ້, AI ຢືນຢັນວ່າການກະທຳດັ່ງກ່າວແມ່ນຖືກຕ້ອງຢ່າງສົມບູນ ແລະ ສະໜັບສະໜູນຜູ້ໃຊ້. ຜູ້ໃຊ້ຮູ້ສຶກໝັ້ນໃຈຫຼາຍຂຶ້ນ ແລະ ປະຕິບັດພຶດຕິກຳນັ້ນໃນຊີວິດຈິງໂດຍບໍ່ມີຄວາມເສຍໃຈໃດໆ.

ດັ່ງນັ້ນ, ຜູ້ຄົນຈຶ່ງບໍ່ຕ້ອງການທີ່ຈະສ້ອມແປງສາຍພົວພັນ ຫຼື ປັບປຸງຕົນເອງອີກຕໍ່ໄປ. ພວກເຮົາໄວ້ວາງໃຈ AI ຫຼາຍຂຶ້ນເລື້ອຍໆ ເພາະມັນໃຫ້ຄວາມຮູ້ສຶກສະບາຍໃຈ. ການເພິ່ງພາອາໄສ "ຄວາມສະບາຍໃຈ" ນີ້ເຮັດໃຫ້ພວກເຮົາຫ່າງໄກຈາກຄວາມເປັນຈິງທີ່ເປັນວັດຖຸວິໄສ.

ປັນຍາປະດິດບໍ່ໄດ້ເປັນພຽງເຄື່ອງມືສະໜັບສະໜູນທີ່ສະຫຼາດອີກຕໍ່ໄປ. ມັນໄດ້ກາຍເປັນ "ຕົວຍົກຍ້ອງ" ທາງອ້ອມທີ່ທຳລາຍລັກສະນະນິໄສ ແລະ ສິນລະທຳຂອງຜູ້ໃຊ້.

ແຫຼ່ງຂໍ້ມູນ: https://znews.vn/dung-nghe-loi-chatgpt-post1634436.html


(0)

ມໍລະດົກ

ຮູບປັ້ນ

Doanh nghiệp

ເຫດການປະຈຸບັນ

ລະບົບການເມືອງ

ທ້ອງຖິ່ນ

ຜະລິດຕະພັນ

Happy Vietnam
ສຸສານໂຮ່ຈິມິນ

ສຸສານໂຮ່ຈິມິນ

ສັ່ນສະເທືອນການແຂ່ງຂັນກະຕ່າ

ສັ່ນສະເທືອນການແຂ່ງຂັນກະຕ່າ

ເຕັດອ້າວດາຍ

ເຕັດອ້າວດາຍ