
ໂຄງການປັນຍາທຽມໄດ້ຮັບຜົນສຳເລັດຫຼາຍຢ່າງໃນຊຸມປີມໍ່ໆມານີ້ - ຮູບພາບ: REUTERS
ພວກເຮົາບໍ່ສາມາດສັງເກດເບິ່ງຂະບວນການທັງຫມົດຈາກຂໍ້ມູນເຂົ້າໄປຫາຜົນໄດ້ຮັບຂອງຕົວແບບພາສາຂະຫນາດໃຫຍ່ (LLMs).
ເພື່ອເຮັດໃຫ້ມັນເຂົ້າໃຈງ່າຍຂຶ້ນ, ນັກວິທະຍາສາດ ໄດ້ໃຊ້ຄໍາສັບທົ່ວໄປເຊັ່ນ "ເຫດຜົນ" ເພື່ອອະທິບາຍວິທີການເຮັດວຽກຂອງໂປຼແກຼມເຫຼົ່ານີ້. ພວກເຂົາເຈົ້າຍັງເວົ້າວ່າໂຄງການສາມາດ "ຄິດ," "ເຫດຜົນ," ແລະ "ເຂົ້າໃຈ" ວິທີທີ່ມະນຸດເຮັດ.
ເກີນຄວາມສາມາດຂອງ AI
ໃນໄລຍະສອງປີທີ່ຜ່ານມາ, ຜູ້ບໍລິຫານ AI ຫຼາຍຄົນໄດ້ໃຊ້ hyperbole ເພື່ອເວົ້າເກີນຄວາມສຳເລັດທາງວິຊາການທີ່ງ່າຍດາຍ, ອີງຕາມ ZDNET ໃນວັນທີ 6 ກັນຍາ.
ໃນເດືອນກັນຍາ 2024, OpenAI ໄດ້ປະກາດວ່າຮູບແບບການໃຫ້ເຫດຜົນ o1 "ໃຊ້ລະບົບຕ່ອງໂສ້ການສົມມຸດຕິຖານໃນເວລາທີ່ແກ້ໄຂບັນຫາ, ຄ້າຍຄືກັບວິທີທີ່ມະນຸດຄິດເປັນເວລາດົນນານເມື່ອປະເຊີນກັບຄໍາຖາມທີ່ຫຍຸ້ງຍາກ."
ຢ່າງໃດກໍຕາມ, ນັກວິທະຍາສາດ AI ຄັດຄ້ານ. ພວກເຂົາເຊື່ອວ່າ AI ບໍ່ມີປັນຍາຂອງມະນຸດ.
ການສຶກສາກ່ຽວກັບຖານຂໍ້ມູນ arXiv ໂດຍກຸ່ມນັກຂຽນທີ່ມະຫາວິທະຍາໄລລັດ Arizona (ສະຫະລັດ) ໄດ້ກວດສອບຄວາມສາມາດໃນການສົມເຫດສົມຜົນຂອງ AI ດ້ວຍການທົດລອງງ່າຍໆ.
ຜົນໄດ້ຮັບໄດ້ສະແດງໃຫ້ເຫັນວ່າ "ການຄິດໄລ່ຕາມລະບົບຕ່ອງໂສ້ຂອງຄວາມຄິດເປັນພາບລວງຕາທີ່ແຂງກະດ້າງ", ບໍ່ແມ່ນກົນໄກທີ່ມີເຫດຜົນທີ່ແທ້ຈິງ, ແຕ່ເປັນການຈັບຄູ່ຮູບແບບທີ່ທັນສະໄໝ.
ຄໍາວ່າ "ຕ່ອງໂສ້ຂອງຄວາມຄິດ" (CoT) ອະນຸຍາດໃຫ້ AI ບໍ່ພຽງແຕ່ມີຄໍາຕອບສຸດທ້າຍເທົ່ານັ້ນ, ແຕ່ຍັງນໍາສະເຫນີແຕ່ລະຂັ້ນຕອນຂອງການສົມເຫດສົມຜົນຢ່າງມີເຫດຜົນ, ເຊັ່ນດຽວກັບແບບຈໍາລອງ GPT-o1 ຫຼື DeepSeek V1.

ພາບປະກອບຂອງຮູບແບບພາສາ OpenAI ຂອງ GPT-2 - ຮູບພາບ: ECHOCRAFTAI
ກວດເບິ່ງສິ່ງທີ່ AI ເຮັດຕົວຈິງ
ການວິເຄາະຂະຫນາດໃຫຍ່ສະແດງໃຫ້ເຫັນວ່າ LLM ມີແນວໂນ້ມທີ່ຈະອີງໃສ່ semantics ແລະຂໍ້ຄຶດດ້ານຫນ້າຫຼາຍກ່ວາຂະບວນການສົມເຫດສົມຜົນຢ່າງມີເຫດຜົນ, ນັກຄົ້ນຄວ້າເວົ້າວ່າ.
ທີມງານອະທິບາຍວ່າ "LLM ກໍ່ສ້າງລະບົບຕ່ອງໂສ້ຕາມເຫດຜົນແບບພິເສດໂດຍອີງໃສ່ການເຊື່ອມໂຍງທີ່ຮຽນຮູ້, ມັກຈະລົ້ມເຫລວໃນວຽກງານທີ່ deviate ຈາກວິທີການສົມເຫດສົມຜົນແບບດັ້ງເດີມຫຼືຮູບແບບທີ່ຄຸ້ນເຄີຍ," ທີມງານອະທິບາຍ.
ເພື່ອທົດສອບສົມມຸດຕິຖານວ່າ LLM ແມ່ນພຽງແຕ່ຮູບແບບທີ່ກົງກັນເທົ່ານັ້ນແລະບໍ່ໄດ້ເຮັດບົດສະຫຼຸບຕົວຈິງ, ທີມງານໄດ້ຝຶກອົບຮົມ GPT-2, ຮູບແບບແຫຼ່ງທີ່ເປີດເຜີຍໂດຍ OpenAI ໃນປີ 2019.
ຮູບແບບດັ່ງກ່າວໄດ້ຖືກຝຶກອົບຮົມໃນເບື້ອງຕົ້ນກ່ຽວກັບວຽກງານທີ່ງ່າຍດາຍຫຼາຍໃນ 26 ຕົວອັກສອນພາສາອັງກິດ, ເຊັ່ນ: ການປ່ຽນຕົວອັກສອນບາງຕົວ, ຕົວຢ່າງການປ່ຽນ "APPLE" ເປັນ "EAPPL". ຫຼັງຈາກນັ້ນ, ທີມງານໄດ້ປ່ຽນວຽກແລະຂໍໃຫ້ GPT-2 ຈັດການກັບມັນ.
ຜົນໄດ້ຮັບສະແດງໃຫ້ເຫັນວ່າສໍາລັບວຽກງານທີ່ບໍ່ໄດ້ລວມຢູ່ໃນຂໍ້ມູນການຝຶກອົບຮົມ, GPT-2 ບໍ່ສາມາດແກ້ໄຂພວກມັນໄດ້ຢ່າງຖືກຕ້ອງໂດຍໃຊ້ CoT.
ແທນທີ່ຈະ, ຕົວແບບພະຍາຍາມປະຕິບັດວຽກງານທີ່ຄ້າຍຄືກັນທີ່ສຸດ. ດັ່ງນັ້ນ "ການສະຫຼຸບ" ຂອງມັນອາດເບິ່ງຄືວ່າສົມເຫດສົມຜົນ, ແຕ່ຜົນໄດ້ຮັບມັກຈະຜິດພາດ.
ກຸ່ມດັ່ງກ່າວໄດ້ສະຫຼຸບວ່າຄົນເຮົາບໍ່ຄວນອີງໃສ່ຫຼາຍເກີນໄປຫຼືເຊື່ອຫມັ້ນໃນຄໍາຕອບຂອງ LLM ຫຼາຍເກີນໄປ, ຍ້ອນວ່າພວກເຂົາສາມາດສ້າງ "ເລື່ອງໄຮ້ສາລະທີ່ຟັງແລ້ວຫນ້າເຊື່ອຖືຫຼາຍ".
ພວກເຂົາເຈົ້າຍັງໄດ້ເນັ້ນຫນັກເຖິງຄວາມຕ້ອງການທີ່ຈະເຂົ້າໃຈລັກສະນະທີ່ແທ້ຈິງຂອງ AI, ຫຼີກເວັ້ນການ hype, ແລະຢຸດເຊົາການສົ່ງເສີມວ່າ AI ມີຄວາມສາມາດສົມເຫດສົມຜົນຄືກັບມະນຸດ.
ທີ່ມາ: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm






(0)