ນີ້ຖືວ່າເປັນໂອກາດທີ່ອ່ອນເພຍແຕ່ສຳຄັນທີ່ຈະຮັບປະກັນຄວາມປອດໄພໃນການນຳໃຊ້ AI ໃນອະນາຄົດ. ພິເສດແມ່ນມີຄວາມໝາຍເມື່ອ ຫວຽດນາມ ຫາກໍ່ໄດ້ຮັບຜ່ານກົດໝາຍວ່າດ້ວຍອຸດສາຫະກຳ ເຕັກໂນໂລຢີດີຈີຕອນ ດ້ວຍບັນດາລະບຽບການລະອຽດກ່ຽວກັບການຄຸ້ມຄອງປັນຍາປະດິດ (AI).
"ປ່ອງຢ້ຽມຂອງໂອກາດ" ແຄບລົງ
ໃນເອກະສານຮ່ວມທີ່ຜ່ານມາ, ນັກຄົ້ນຄວ້າ OpenAI ເຕືອນວ່າຄວາມສາມາດຂອງ AI ໃນການຕິດຕາມ "ຄວາມຄິດ" ສາມາດຫາຍໄປໂດຍບໍ່ມີຄວາມພະຍາຍາມຄົ້ນຄ້ວາທີ່ສຸມໃສ່, Bowen Baker, ນັກຄົ້ນຄວ້າຂອງ OpenAI ກ່າວ.
ນີ້ແມ່ນສິ່ງສໍາຄັນເປັນພິເສດຍ້ອນວ່າຕົວແບບ AI ກາຍເປັນຕົວແບບທີ່ມີປະສິດທິພາບຫຼາຍຂຶ້ນແລະມີທ່າແຮງທີ່ຈະມີຜົນກະທົບທີ່ຮ້າຍແຮງຕໍ່ສັງຄົມ.
ລັກສະນະຫຼັກຂອງການໃຫ້ເຫດຜົນ AI ແບບຈໍາລອງເຊັ່ນ OpenAI's o-3 ແລະ DeepSeek's R1 ແມ່ນ "ຕ່ອງໂສ້ຂອງຄວາມຄິດ" ( CoT) - ຂະບວນການທີ່ AI ສະແດງຂັ້ນຕອນການສົມເຫດສົມຜົນຂອງມັນໃນພາສາທໍາມະຊາດ, ຄ້າຍຄືກັບວິທີທີ່ມະນຸດຂຽນແຕ່ລະຂັ້ນຕອນຂອງບັນຫາທາງຄະນິດສາດໃສ່ເຈ້ຍຂູດ.
ຄວາມສາມາດນີ້ເຮັດໃຫ້ພວກເຮົາເຫັນໄດ້ຊັດເຈນວ່າ AI ເຮັດການຕັດສິນໃຈແນວໃດ.
ນີ້ແມ່ນຈຸດເວລາທີ່ຫາຍາກຂອງຄວາມສາມັກຄີລະຫວ່າງຜູ້ນໍາຫຼາຍຄົນໃນອຸດສາຫະກໍາ AI ເພື່ອກ້າວຫນ້າການຄົ້ນຄວ້າກ່ຽວກັບຄວາມປອດໄພ AI.
ນີ້ມີຄວາມກ່ຽວຂ້ອງໂດຍສະເພາະຍ້ອນການແຂ່ງຂັນທີ່ຮຸນແຮງລະຫວ່າງບໍລິສັດເຕັກໂນໂລຢີໃນການພັດທະນາ AI. ຜູ້ລົງນາມໃນເອກະສານດັ່ງກ່າວລວມມີ Mark Chen, ຜູ້ອໍານວຍການຝ່າຍຄົ້ນຄວ້າຂອງ OpenAI, Ilya Sutskever, CEO ຂອງ Safe Superintelligence, ຜູ້ໄດ້ຮັບລາງວັນໂນແບລ Geoffrey Hinton, ຜູ້ຮ່ວມກໍ່ຕັ້ງ Google DeepMind Shane Legg, ແລະທີ່ປຶກສາດ້ານຄວາມປອດໄພ xAI Dan Hendrycks.
ການມີສ່ວນຮ່ວມຂອງຊື່ເທິງເຫຼົ່ານີ້ສະແດງໃຫ້ເຫັນເຖິງຄວາມສໍາຄັນຂອງບັນຫາ.
ນອກຈາກນັ້ນ, ອີງຕາມການປະເມີນຜົນຂອງທ່ານ Bowen Baker, "ພວກເຮົາຢູ່ໃນຈຸດສໍາຄັນໃນເວລາທີ່ມີອັນທີ່ເອີ້ນວ່າ "ຕ່ອງໂສ້ຂອງຄວາມຄິດ" ໃຫມ່ທີ່ອາດຈະຫາຍໄປໃນສອງສາມປີຂ້າງຫນ້າຖ້າປະຊາຊົນບໍ່ໄດ້ສຸມໃສ່ມັນຢ່າງແທ້ຈິງ."

ເປັນຫຍັງການຕິດຕາມ “ການຄິດ AI” ຈຶ່ງສຳຄັນ?
ລະບົບ AI ໃນປະຈຸບັນມັກຈະຖືກຄິດວ່າເປັນ "ກ່ອງດໍາ" - ພວກເຮົາຮູ້ຈັກວັດສະດຸປ້ອນແລະຜົນໄດ້ຮັບແຕ່ບໍ່ເຂົ້າໃຈຂະບວນການຕັດສິນໃຈພາຍໃນ.
ນີ້ຈະກາຍເປັນອັນຕະລາຍເມື່ອ AI ຖືກ ນຳ ໃຊ້ໃນຂົງເຂດທີ່ສໍາຄັນເຊັ່ນ: ການດູແລສຸຂະພາບ , ການເງິນແລະຄວາມປອດໄພແຫ່ງຊາດ.
ການຕິດຕາມ CoT ແມ່ນລະບົບອັດຕະໂນມັດທີ່ອ່ານລະບົບຕ່ອງໂສ້ທາງຈິດຂອງຕົວແບບທາງຈິດ ແລະຂໍ້ມູນທີ່ກ່ຽວຂ້ອງອື່ນໆເພື່ອລາຍງານການໂຕ້ຕອບທີ່ໜ້າສົງໄສ ຫຼືອາດເປັນອັນຕະລາຍ. ມັນບໍ່ແມ່ນການແກ້ໄຂທີ່ສົມບູນ, ແຕ່ວ່າມັນສາມາດກາຍເປັນຊັ້ນທີ່ມີຄຸນຄ່າຂອງການປົກປັກຮັກສາຄວາມປອດໄພ.
ການຄົ້ນຄວ້າຈາກ OpenAI ສະແດງໃຫ້ເຫັນວ່າແບບຈໍາລອງ AI ມີແນວໂນ້ມທີ່ຈະມີຄວາມຊັດເຈນຫຼາຍກ່ຽວກັບຄວາມຕັ້ງໃຈຂອງພວກເຂົາໃນລໍາດັບແນວຄິດຂອງພວກເຂົາ.
ຕົວຢ່າງ, ເຂົາເຈົ້າມັກຈະມີຄວາມຊັດເຈນຫຼາຍກ່ຽວກັບແຜນການຂອງເຂົາເຈົ້າທີ່ຈະທໍາລາຍພາລະກິດໃນເວລາທີ່ເຂົາເຈົ້າຄິດວ່າ "ໃຫ້ເຮົາ hack." ນີ້ສະແດງໃຫ້ເຫັນຄວາມສາມາດຂອງ AI ໃນການຕິດຕາມແລະກວດພົບການປະພຶດທີ່ບໍ່ດີ.
“ໃຫ້ແຮັກ” ແມ່ນປະໂຫຍກທີ່ຕົວແບບ AI ມັກຈະ “ຄິດ” ເມື່ອ “ເຂົາເຈົ້າ” ຕັ້ງໃຈຈະທຳຮ້າຍ ຫຼື ຫຼົບຫຼີກກົດລະບຽບໃນລະຫວ່າງການປະຕິບັດໜ້າທີ່ໃດໜຶ່ງ.
ຄວາມຈິງທີ່ວ່າ AIs ສະແດງໃຫ້ເຫັນຄວາມຕັ້ງໃຈ "hacking" ໃນຂະບວນການຄິດຂອງເຂົາເຈົ້າຊີ້ໃຫ້ເຫັນວ່າພວກເຮົາສາມາດກວດພົບພຶດຕິກໍາ AI ທີ່ບໍ່ດີກ່ອນທີ່ມັນຈະເກີດຂຶ້ນ. ນີ້ແມ່ນເຫດຜົນທີ່ວ່າການຕິດຕາມຂະບວນການຄິດແມ່ນສໍາຄັນ.
ໃນຄໍາສັບຕ່າງໆອື່ນໆ, "ໃຫ້ພວກເຮົາ hack" ແມ່ນຄ້າຍຄື "ສັນຍານເຕືອນ" ເພື່ອເຮັດໃຫ້ມະນຸດຮູ້ວ່າ AI ກໍາລັງຈະເຮັດບາງສິ່ງບາງຢ່າງຜິດພາດ.
ຫວຽດນາມ ແລະ ບັນດາລະບຽບກົດໝາຍກ່ຽວກັບ AI
ໃນຕົວຈິງ, ຫວຽດນາມ ໄດ້ມີບາດກ້າວບຸກທະລຸສຳຄັນໃນການສ້າງກອບກົດໝາຍໃຫ້ແກ່ AI.
ວັນທີ 14 ມິຖຸນານີ້, ສະພາແຫ່ງຊາດ ຫວຽດນາມໄດ້ຜ່ານຮ່າງກົດໝາຍວ່າດ້ວຍອຸດສາຫະກຳເຕັກໂນໂລຊີດີຈີຕອນ, ໃນນັ້ນໝວດທີ 4 ມີບັນດາລະບຽບການລະອຽດກ່ຽວກັບປັນຍາປະດິດ - ແມ່ນໜຶ່ງໃນຂອບກົດໝາຍທີ່ຮອບດ້ານກ່ຽວກັບ AI ຢູ່ອາຊີຕາເວັນອອກສ່ຽງໃຕ້ປະຈຸບັນ.
ມາດຕາ 41 ຂອງກົດໝາຍໄດ້ກຳນົດບັນດາຫຼັກການພື້ນຖານເພື່ອພັດທະນາ, ສະໜອງ ແລະ ນຳໃຊ້ AI ຢູ່ ຫວຽດນາມ.
ໂດຍສະເພາະ, ຈຸດ b, ຂໍ້ 1 ກໍານົດ: "ຮັບປະກັນຄວາມໂປ່ງໃສ, ຄວາມຮັບຜິດຊອບ, ຄໍາອະທິບາຍ; ໃຫ້ແນ່ໃຈວ່າມັນບໍ່ເກີນການຄວບຄຸມຂອງມະນຸດ".

ສະພາແຫ່ງຊາດໄດ້ຜ່ານຮ່າງກົດໝາຍວ່າດ້ວຍອຸດສາຫະກຳເຕັກໂນໂລຊີດີຈີຕອນ (ພາບ: ຮ່າບັກ).
ນີ້ແມ່ນຫຼັກການທີ່ນັກວິທະຍາສາດສາກົນຮຽກຮ້ອງໃນເວລາສົນທະນາກ່ຽວກັບການເຝົ້າລະວັງລະບົບຕ່ອງໂສ້ AI.
ນອກຈາກນັ້ນ, ຈຸດ d, ຂໍ້ 1, ມາດຕາ 41 ກໍານົດ: "ຮັບປະກັນຄວາມສາມາດໃນການຄວບຄຸມລະບົບສູດການຄິດໄລ່ແລະຕົວແບບປັນຍາປະດິດ". ນີ້ແມ່ນສອດຄ່ອງກັບຈິດໃຈຂອງການຊີ້ນໍາຂອງ CoT ທີ່ຜູ້ຊ່ຽວຊານສາກົນສະເຫນີ.
ສິ່ງທີ່ສໍາຄັນກວ່ານັ້ນ, ມາດຕາ 41, ຂໍ້ 1, ຈຸດ a ຍັງກໍານົດມາດຕະຖານດ້ານຈັນຍາບັນສູງເມື່ອມັນກໍານົດວ່າ AI ຕ້ອງ "ຮັບໃຊ້ຄວາມຈະເລີນຮຸ່ງເຮືອງແລະຄວາມສຸກຂອງມະນຸດ, ກັບປະຊາຊົນເປັນໃຈກາງ".
ນີ້ຫມາຍຄວາມວ່າການຕິດຕາມລະບົບຕ່ອງໂສ້ຄວາມຄິດ AI ບໍ່ພຽງແຕ່ເປັນຂໍ້ກໍານົດດ້ານວິຊາການ, ແຕ່ຍັງເປັນພັນທະດ້ານຈັນຍາບັນ - ໃຫ້ແນ່ໃຈວ່າ AI ມຸ່ງໄປສູ່ຜົນປະໂຫຍດຂອງມະນຸດສະເຫມີ, ບໍ່ແມ່ນເປົ້າຫມາຍຂອງເຄື່ອງຈັກ.
ຈັດປະເພດແລະຈັດການ AI ຕາມລະດັບຄວາມສ່ຽງ
ກົດໝາຍວ່າດ້ວຍອຸດສາຫະກຳເຕັກໂນໂລຊີດິຈິຕອລຂອງຫວຽດນາມ ໄດ້ກ້າວໄປອີກບາດກ້າວໜຶ່ງໂດຍການຈຳແນກ AI ເປັນກຸ່ມຄວາມສ່ຽງຕ່າງໆ ດ້ວຍການກຳນົດຢ່າງຈະແຈ້ງ ແລະວິທະຍາສາດ.
ມາດຕາ 43 ນິຍາມ “ລະບົບປັນຍາປະດິດທີ່ມີຄວາມສ່ຽງສູງ” ເປັນລະບົບທີ່ມີຄວາມສ່ຽງ ຫຼືເປັນອັນຕະລາຍຕໍ່ສຸຂະພາບຂອງມະນຸດ, ສິດທິມະນຸດ ແລະຄວາມເປັນລະບຽບຮຽບຮ້ອຍຂອງສາທາລະນະຊົນ.
ຫນ້າສົນໃຈ, ກົດຫມາຍວ່າດ້ວຍການສະຫນອງຂໍ້ຍົກເວັ້ນສະເພາະສໍາລັບ AI ທີ່ມີຄວາມສ່ຽງສູງ, ລວມທັງລະບົບ "ມີຈຸດປະສົງເພື່ອຊ່ວຍມະນຸດໃນການເພີ່ມປະສິດທິພາບຜົນໄດ້ຮັບ" ແລະ "ບໍ່ມີຈຸດປະສົງເພື່ອທົດແທນການຕັດສິນໃຈຂອງມະນຸດ."
ນີ້ສະແດງໃຫ້ເຫັນແນວຄິດທີ່ສົມດູນລະຫວ່າງການຊຸກຍູ້ການປະດິດສ້າງແລະການຮັບປະກັນຄວາມປອດໄພ.

ການຈັດປະເພດ AI ຕາມລະດັບຄວາມສ່ຽງຈະຊ່ວຍສ້າງລະບົບການຕິດຕາມຫຼາຍຊັ້ນ (ຮູບແຕ້ມ: LinkedIn).
ໂດຍສະເພາະ, ການຈໍາແນກລະຫວ່າງ "AI ຄວາມສ່ຽງສູງ" ແລະ "AI ຜົນກະທົບສູງ" (ລະບົບທີ່ຖືກນໍາໃຊ້ເພື່ອຈຸດປະສົງຫຼາຍແລະມີຈໍານວນຜູ້ໃຊ້ຈໍານວນຫລາຍ) ສະແດງໃຫ້ເຫັນເຖິງຄວາມແຕກຕ່າງກັນໃນວິທີການ.
ນີ້ແມ່ນການຈັດປະເພດທີ່ມີຄວາມຄືບຫນ້າຫຼາຍກ່ວາກົດຫມາຍວ່າດ້ວຍປັນຍາປະດິດຂອງສະຫະພາບເອີຣົບ (EU) ເຊິ່ງພິຈາລະນາບໍ່ພຽງແຕ່ລະດັບຄວາມສ່ຽງເທົ່ານັ້ນ, ແຕ່ຍັງຂະຫນາດແລະຂອບເຂດຂອງຜົນກະທົບ.
ການຈັດປະເພດນີ້ຈະຊ່ວຍສ້າງລະບົບການຄວບຄຸມຫຼາຍຊັ້ນ, ເຊິ່ງການຄວບຄຸມລະບົບຕ່ອງໂສ້ຂອງສາຍຕາຈະມີຄວາມສໍາຄັນໂດຍສະເພາະສໍາລັບລະບົບ AI ທີ່ມີຄວາມສ່ຽງສູງແລະຜົນກະທົບສູງ.
ເວທີສໍາລັບການເຝົ້າລະວັງ AI
ໜຶ່ງໃນບັນດາຈຸດພົ້ນເດັ່ນ ແລະ ຈຸດບຸກເບີກຂອງກົດໝາຍວ່າດ້ວຍອຸດສາຫະກຳ ແລະ ເຕັກໂນໂລຊີດິຈິຕອລຂອງຫວຽດນາມ ແມ່ນຄວາມຮຽກຮ້ອງຕ້ອງການກ່ຽວກັບຄວາມໂປ່ງໃສ ແລະ ການກຳນົດເຄື່ອງໝາຍ.
ມາດຕາ 44 ກໍານົດວ່າລະບົບ AI ທີ່ພົວພັນກັບມະນຸດໂດຍກົງຕ້ອງແຈ້ງໃຫ້ຜູ້ໃຊ້ຮູ້ວ່າພວກເຂົາພົວພັນກັບລະບົບ AI. ໃນເວລາດຽວກັນ, ຜະລິດຕະພັນທີ່ສ້າງໂດຍ AI ຕ້ອງມີເຄື່ອງຫມາຍການກໍານົດ.
ນີ້ມີຜົນກະທົບທີ່ສໍາຄັນສໍາລັບການຈັດຕັ້ງປະຕິບັດການຕິດຕາມ CoT. ເມື່ອຜູ້ໃຊ້ຮູ້ວ່າພວກເຂົາກໍາລັງພົວພັນກັບ AI, ພວກເຂົາຈະມີສິດທີ່ຈະຮຽກຮ້ອງໃຫ້ມີຄໍາອະທິບາຍກ່ຽວກັບຂະບວນການຕັດສິນໃຈ, ສ້າງຄວາມກົດດັນໃນທາງບວກສໍາລັບຜູ້ພັດທະນາ AI ເພື່ອຮັກສາຄວາມສາມາດໃນການກວດສອບຂະບວນການຄິດຂອງ AI.
ໂດຍສະເພາະ, ຄວາມຈິງທີ່ວ່າກະຊວງວິທະຍາສາດແລະເຕັກໂນໂລຊີໄດ້ຖືກມອບຫມາຍຄວາມຮັບຜິດຊອບຂອງ "ການອອກບັນຊີລາຍຊື່ຂອງຜະລິດຕະພັນເຕັກໂນໂລຊີດິຈິຕອນທີ່ສ້າງຂຶ້ນໂດຍປັນຍາປະດິດ" ສະແດງໃຫ້ເຫັນການຄຸ້ມຄອງຢ່າງຫ້າວຫັນ.
ນີ້ແມ່ນຄວາມແຕກຕ່າງທີ່ສໍາຄັນຈາກຫຼາຍປະເທດ, ບ່ອນທີ່ກົດລະບຽບຂອງ AI ມັກຈະມີທົ່ວໄປຫຼາຍ.
ຍິ່ງໄປກວ່ານັ້ນ, ການຮຽກຮ້ອງໃຫ້ມີຕົວລະບຸ "ໄດ້ຮັບການຍອມຮັບໂດຍຜູ້ໃຊ້ຫຼືເຄື່ອງຈັກ" ສະແດງເຖິງວິໄສທັດຂອງລະບົບນິເວດ AI ທີ່ສາມາດຕໍາຫຼວດຕົນເອງໄດ້ - ເຊິ່ງເຫມາະຢ່າງສົມບູນກັບຄວາມຄິດຂອງການເຝົ້າລະວັງລະບົບຕ່ອງໂສ້ສາຍຕາແບບອັດຕະໂນມັດ.
ຮູບແບບການຄຸ້ມຄອງທີ່ສົມບູນແບບ
ມາດຕາ 45 ຂອງກົດໝາຍຂ້າງເທິງນີ້ສະແດງໃຫ້ເຫັນເຖິງປັດຊະຍາການຄຸ້ມຄອງທີ່ກ້າວໜ້າ ເມື່ອກຳນົດຄວາມຮັບຜິດຊອບຂອງສາມກຸ່ມວິຊາຢ່າງຈະແຈ້ງຕາມວົງຈອນຊີວິດຂອງຜະລິດຕະພັນ AI ຄື: ວິຊາພັດທະນາ, ວິຊາສະໜອງ ແລະ ວິຊາປະຕິບັດການນຳໃຊ້ລະບົບ AI.
ອັນນີ້ສ້າງລະບົບຄວາມຮັບຜິດຊອບແບບບໍ່ຢຸດຢັ້ງ, ຮັບປະກັນວ່າການຄວບຄຸມ AI ບໍ່ແມ່ນພຽງແຕ່ຄວາມຮັບຜິດຊອບຂອງຝ່າຍດຽວ.
ໂດຍສະເພາະ, ຄວາມແຕກຕ່າງທີ່ລະອຽດອ່ອນລະຫວ່າງ "ການພັດທະນາ" ແລະ "ການສະຫນອງ" AI; ນັກພັດທະນາແມ່ນຜູ້ທີ່ "ຄົ້ນຄ້ວາແລະພັດທະນາ," ໃນຂະນະທີ່ຜູ້ໃຫ້ບໍລິການແມ່ນຜູ້ທີ່ນໍາມັນມາສູ່ຕະຫຼາດພາຍໃຕ້ຊື່ແບ.
ນີ້ຫມາຍຄວາມວ່າເຖິງແມ່ນວ່າບໍລິສັດພຽງແຕ່ rebrands ຮູບແບບ AI ທີ່ມີຢູ່ແລ້ວ, ພວກເຂົາເຈົ້າຍັງຮັບຜິດຊອບສໍາລັບຄວາມໂປ່ງໃສແລະຄໍາອະທິບາຍ.

ສິ່ງທີ່ຫນ້າສົນໃຈໂດຍສະເພາະນີ້ແມ່ນວິທີການທີ່ກົດຫມາຍໄດ້ຈັດສັນຄວາມຮັບຜິດຊອບທີ່ແຕກຕ່າງກັນໃຫ້ກັບຫນ່ວຍງານທີ່ແຕກຕ່າງກັນ.
ນັກພັດທະນາຕ້ອງປະຕິບັດຕາມຫຼັກການທັງຫມົດ, ຜູ້ໃຫ້ບໍລິການຕ້ອງຮັບຜິດຊອບເພີ່ມເຕີມສໍາລັບການກໍານົດແລະການຄຸ້ມຄອງຄວາມສ່ຽງສູງ, ແລະຜູ້ໃຊ້ໄດ້ຖືກ "ຍົກເວັ້ນ" ບາງສ່ວນຈາກຄວາມຮັບຜິດຊອບແຕ່ຍັງຕ້ອງຮັບປະກັນຄວາມໂປ່ງໃສແລະການຄວບຄຸມຄວາມສ່ຽງ.
ຮູບແບບນີ້ສ້າງ "ລະບົບຕ່ອງໂສ້ຄວາມຮັບຜິດຊອບ" ທີ່ແຕ່ລະເຊື່ອມຕໍ່ມີແຮງຈູງໃຈທີ່ຈະຮັກສາການເບິ່ງແຍງລະບົບຕ່ອງໂສ້ການຄິດ AI, ເພາະວ່າທັງຫມົດແມ່ນຮັບຜິດຊອບຕໍ່ຜູ້ໃຊ້ສຸດທ້າຍ.
ສິ່ງທ້າທາຍຂອງການຮັກສາຄວາມສາມາດໃນການເຝົ້າລະວັງ
ຢ່າງໃດກໍ່ຕາມ, ຄວາມສາມາດໃນການກວດສອບລະບົບຕ່ອງໂສ້ຄວາມຄິດຂອງ AI ອາດຈະມີຄວາມອ່ອນແອແລະມີຄວາມສ່ຽງ. ສະຖາປັດຕະຍະກຳ AI ໃໝ່ອາດຈະເຮັດໃຫ້ເກີດໄພຂົ່ມຂູ່ອື່ນໆ.
ນັກຄົ້ນຄວ້າຈໍານວນຫຼາຍກໍາລັງພັດທະນາລະບົບການສົມເຫດສົມຜົນໃນຊ່ອງຄະນິດສາດຢ່າງຕໍ່ເນື່ອງ, ແທນທີ່ຈະເປັນຄໍາສັບທີ່ແຍກກັນ, ທີ່ສາມາດລົບລ້າງຄວາມຕ້ອງການທີ່ຈະໃຊ້ພາສາໃນການຄິດ.
ຍິ່ງໄປກວ່ານັ້ນ, AI ສາມາດກາຍເປັນ "ການກັ່ນຕອງ" - ນັ້ນແມ່ນ, ມັນພຽງແຕ່ສະແດງໃຫ້ເຫັນຄວາມຄິດໃນທາງບວກຂອງມະນຸດທີ່ຈະໄດ້ຮັບການຍົກຍ້ອງ, ໃນຂະນະທີ່ມີເຈດຕະນາເຊື່ອງຄວາມຕັ້ງໃຈທີ່ແທ້ຈິງຂອງມັນ.
ອັນຕະລາຍຢູ່ທີ່ນີ້ແມ່ນວ່າເມື່ອ AI ຮູ້ວ່າມັນຖືກຕິດຕາມ, ມັນສາມາດຮຽນຮູ້ທີ່ຈະປິດບັງຄວາມຄິດທີ່ແທ້ຈິງຂອງມັນ.
ໃນສະພາບການດັ່ງກ່າວ, ຂໍ້ກຳນົດ “ຄວບຄຸມຄວາມສ່ຽງຕະຫຼອດຊີວິດຂອງລະບົບປັນຍາປະດິດ” ໃນຈຸດ e, ຂໍ້ 1, ມາດຕາ 41 ຂອງກົດໝາຍຫວຽດນາມ ຖືເປັນສຳຄັນເປັນພິເສດ. ນີ້ຮຽກຮ້ອງໃຫ້ມີກົນໄກການຕິດຕາມຢ່າງຕໍ່ເນື່ອງ, ບໍ່ພຽງແຕ່ໃນເວລາຂອງການປະຕິບັດ.
ຜົນກະທົບຕໍ່ການພັດທະນາ AI ໃນອະນາຄົດ
ການຕິດຕາມລະບົບຕ່ອງໂສ້ຂອງຄວາມຄິດສາມາດກາຍເປັນເຄື່ອງມືທີ່ສໍາຄັນເພື່ອຮັບປະກັນ AI ດໍາເນີນການໃນວິທີທີ່ມີປະໂຫຍດຕໍ່ມະນຸດ.
ຖ້າຕົວແບບສືບຕໍ່ໃຫ້ເຫດຜົນໃນພາສາທໍາມະຊາດ, ແລະຖ້າພຶດຕິກໍາທີ່ເຮັດໃຫ້ເກີດຄວາມສ່ຽງທີ່ຮ້າຍແຮງທີ່ສຸດຮຽກຮ້ອງໃຫ້ມີເຫດຜົນຢ່າງກວ້າງຂວາງ, ນີ້ສາມາດເຮັດໃຫ້ການກວດສອບຄວາມຜິດທີ່ຮ້າຍແຮງທີ່ຫນ້າເຊື່ອຖື.
ສຳລັບຫວຽດນາມ, ນຳໃຊ້ເຕັກນິກຕິດຕາມກວດກາ CoT ຈະຊ່ວຍປະຕິບັດບັນດາຂໍ້ກຳນົດຂອງກົດໝາຍຢ່າງມີປະສິດທິຜົນ.
ຕົວຢ່າງ, ຂໍ້ກໍານົດ "ການອະທິບາຍ" ໃນມາດຕາ 41 ຈະງ່າຍຂຶ້ນທີ່ຈະພໍໃຈຖ້າຫາກວ່າການຝຶກອົບຮົມຄວາມຄິດຂອງ AI ສາມາດເຂົ້າເຖິງໄດ້. ເຊັ່ນດຽວກັນ, "ການຄວບຄຸມຂອງສູດການຄິດໄລ່, ຮູບແບບປັນຍາປະດິດ" ຈະກາຍເປັນຄວາມເປັນໄປໄດ້ຫຼາຍ.
ການປະຕິບັດວຽກງານຕິດຕາມກວດກາລະບົບຕ່ອງໂສ້ AI ຢູ່ຫວຽດນາມ ຈະປະສົບກັບຄວາມຫຍຸ້ງຍາກຫຼາຍຢ່າງ. ກ່ອນອື່ນ ໝົດ, ມີບັນຫາຊັບພະຍາກອນມະນຸດ - ການຂາດແຄນຜູ້ຊ່ຽວຊານ AI ທີ່ມີຄວາມສາມາດໃນການພັດທະນາແລະລະບົບການຕິດຕາມການປະຕິບັດ.
ນີ້ຮຽກຮ້ອງໃຫ້ມີການລົງທຶນຢ່າງຫນັກໃນການຝຶກອົບຮົມແລະການດຶງດູດຄວາມສາມາດ.
ທິດທາງສໍາລັບອະນາຄົດ
ນັກຄົ້ນຄວ້າຮຽກຮ້ອງໃຫ້ຜູ້ພັດທະນາແບບຈໍາລອງ AI ຊັ້ນນໍາເພື່ອຄົ້ນຄ້ວາສິ່ງທີ່ເຮັດໃຫ້ CoT "ສາມາດຕິດຕາມໄດ້" - ປັດໃຈທີ່ສາມາດເພີ່ມຫຼືຫຼຸດລົງຄວາມໂປ່ງໃສກ່ຽວກັບວິທີການນໍາໃຊ້ແບບຈໍາລອງ AI - ແລະມີຄໍາຕອບໃນໄວໆນີ້.
ໂອກາດທີ່ຈະຕິດຕາມ AI "ການຄິດ" ອາດຈະເປັນປ່ອງຢ້ຽມສຸດທ້າຍຂອງພວກເຮົາໃນການຮັກສາການຄວບຄຸມລະບົບປັນຍາປະດິດທີ່ມີພະລັງທີ່ເພີ່ມຂຶ້ນໃນມື້ນີ້.

ສຳລັບ ຫວຽດນາມ, ມີຂອບກົດໝາຍຮອບດ້ານກ່ຽວກັບ AI ຜ່ານກົດໝາຍວ່າດ້ວຍອຸດສາຫະກຳເຕັກໂນໂລຊີດີຈີຕອນແມ່ນຂໍ້ດີທີ່ດີ. ລະບຽບການກ່ຽວກັບຄວາມໂປ່ງໃສ, ການຄວບຄຸມລະບົບວິທີ ແລະການຈັດປະເພດຄວາມສ່ຽງ ໄດ້ສ້າງພື້ນຖານທາງດ້ານກົດໝາຍທີ່ໜັກແໜ້ນເພື່ອນຳໃຊ້ເຕັກນິກການຕິດຕາມລະບົບຕ່ອງໂສ້ AI.
ສົມທົບກັບການຄົ້ນຄວ້າສາກົນທີ່ກ້າວໜ້າ ແລະ ຂອບເຂດກົດໝາຍພາຍໃນປະເທດທີ່ກ້າວໜ້າຈະຊ່ວຍໃຫ້ ຫວຽດນາມ ບໍ່ພຽງແຕ່ພັດທະນາ AI ຢ່າງປອດໄພເທົ່ານັ້ນ ຫາກຍັງກາຍເປັນແບບຢ່າງໃຫ້ບັນດາປະເທດໃນພາກພື້ນ.
ສິ່ງດັ່ງກ່າວແມ່ນສອດຄ່ອງກັບເປົ້າໝາຍຫັນຫວຽດນາມ ກາຍເປັນ “ສູນເຕັກໂນໂລຊີດິຈິຕອນຂອງພາກພື້ນ ແລະ ທົ່ວໂລກ” ຕາມທີ່ໄດ້ວາງອອກໃນຍຸດທະສາດພັດທະນາແຫ່ງຊາດ.
ດ້ວຍພື້ນຖານນິຕິກຳທີ່ມີຢູ່ແລ້ວ, ຫວຽດນາມ ຕ້ອງຜັນຂະຫຍາຍການຄົ້ນຄວ້າ ແລະ ນຳໃຊ້ຕົວຈິງຢ່າງວ່ອງໄວກ່ຽວກັບການຕິດຕາມກວດກາລະບົບຕ່ອງໂສ້ AI. ພຽງແຕ່ໂດຍການເຮັດດັ່ງນັ້ນພວກເຮົາສາມາດຮັບປະກັນວ່າ AI ຈະໃຫ້ບໍລິການ "ຄວາມຈະເລີນຮຸ່ງເຮືອງແລະຄວາມສຸກຂອງມະນຸດ" ຕາມຈິດໃຈຂອງກົດຫມາຍອຸດສາຫະກໍາເຕັກໂນໂລຢີດິຈິຕອນໄດ້ກໍານົດໄວ້.
ທີ່ມາ: https://dantri.com.vn/cong-nghe/giam-sat-chuoi-tu-duy-cua-tri-tue-nhan-tao-20250731151403739.htm
(0)