Vietnam.vn - Nền tảng quảng bá Việt Nam

ຕິດຕາມກວດກາ "ຕ່ອງໂສ້ການຄິດ" ຂອງປັນຍາປະດິດ

(Dan Tri) - ນັກວິທະຍາສາດຫຼາຍກວ່າ 40 ຄົນຈາກ OpenAI, Google DeepMind, Anthropic ແລະ Meta ໄດ້ຮ່ວມກັນຮຽກຮ້ອງໃຫ້ຄົ້ນຄ້ວາຕື່ມອີກກ່ຽວກັບເຕັກນິກການຕິດຕາມ "ຕ່ອງໂສ້ຄວາມຄິດ" ຂອງຕົວແບບ AI.

Báo Dân tríBáo Dân trí31/07/2025

ນີ້​ຖື​ວ່າ​ເປັນ​ໂອກາດ​ທີ່​ອ່ອນ​ເພຍ​ແຕ່​ສຳຄັນ​ທີ່​ຈະ​ຮັບປະກັນ​ຄວາມ​ປອດ​ໄພ​ໃນ​ການ​ນຳ​ໃຊ້ AI ​ໃນ​ອະນາຄົດ. ພິ​ເສດ​ແມ່ນ​ມີ​ຄວາມ​ໝາຍ​ເມື່ອ ຫວຽດນາມ ຫາ​ກໍ່​ໄດ້​ຮັບ​ຜ່ານ​ກົດໝາຍ​ວ່າ​ດ້ວຍ​ອຸດສາຫະກຳ ​ເຕັກ​ໂນ​ໂລ​ຢີດີ​ຈີ​ຕອນ ດ້ວຍ​ບັນດາ​ລະບຽບ​ການ​ລະອຽດ​ກ່ຽວ​ກັບ​ການ​ຄຸ້ມ​ຄອງ​ປັນຍາ​ປະດິດ (AI).

"ປ່ອງຢ້ຽມຂອງໂອກາດ" ແຄບລົງ

ໃນເອກະສານຮ່ວມທີ່ຜ່ານມາ, ນັກຄົ້ນຄວ້າ OpenAI ເຕືອນວ່າຄວາມສາມາດຂອງ AI ໃນການຕິດຕາມ "ຄວາມຄິດ" ສາມາດຫາຍໄປໂດຍບໍ່ມີຄວາມພະຍາຍາມຄົ້ນຄ້ວາທີ່ສຸມໃສ່, Bowen Baker, ນັກຄົ້ນຄວ້າຂອງ OpenAI ກ່າວ.

ນີ້ແມ່ນສິ່ງສໍາຄັນເປັນພິເສດຍ້ອນວ່າຕົວແບບ AI ກາຍເປັນຕົວແບບທີ່ມີປະສິດທິພາບຫຼາຍຂຶ້ນແລະມີທ່າແຮງທີ່ຈະມີຜົນກະທົບທີ່ຮ້າຍແຮງຕໍ່ສັງຄົມ.

ລັກສະນະຫຼັກຂອງການໃຫ້ເຫດຜົນ AI ແບບຈໍາລອງເຊັ່ນ OpenAI's o-3 ແລະ DeepSeek's R1 ແມ່ນ "ຕ່ອງໂສ້ຂອງຄວາມຄິດ" ( CoT) - ຂະບວນການທີ່ AI ສະແດງຂັ້ນຕອນການສົມເຫດສົມຜົນຂອງມັນໃນພາສາທໍາມະຊາດ, ຄ້າຍຄືກັບວິທີທີ່ມະນຸດຂຽນແຕ່ລະຂັ້ນຕອນຂອງບັນຫາທາງຄະນິດສາດໃສ່ເຈ້ຍຂູດ.

ຄວາມສາມາດນີ້ເຮັດໃຫ້ພວກເຮົາເຫັນໄດ້ຊັດເຈນວ່າ AI ເຮັດການຕັດສິນໃຈແນວໃດ.

ນີ້ແມ່ນຈຸດເວລາທີ່ຫາຍາກຂອງຄວາມສາມັກຄີລະຫວ່າງຜູ້ນໍາຫຼາຍຄົນໃນອຸດສາຫະກໍາ AI ເພື່ອກ້າວຫນ້າການຄົ້ນຄວ້າກ່ຽວກັບຄວາມປອດໄພ AI.

ນີ້ມີຄວາມກ່ຽວຂ້ອງໂດຍສະເພາະຍ້ອນການແຂ່ງຂັນທີ່ຮຸນແຮງລະຫວ່າງບໍລິສັດເຕັກໂນໂລຢີໃນການພັດທະນາ AI. ຜູ້ລົງນາມໃນເອກະສານດັ່ງກ່າວລວມມີ Mark Chen, ຜູ້ອໍານວຍການຝ່າຍຄົ້ນຄວ້າຂອງ OpenAI, Ilya Sutskever, CEO ຂອງ Safe Superintelligence, ຜູ້ໄດ້ຮັບລາງວັນໂນແບລ Geoffrey Hinton, ຜູ້ຮ່ວມກໍ່ຕັ້ງ Google DeepMind Shane Legg, ແລະທີ່ປຶກສາດ້ານຄວາມປອດໄພ xAI Dan Hendrycks.

ການມີສ່ວນຮ່ວມຂອງຊື່ເທິງເຫຼົ່ານີ້ສະແດງໃຫ້ເຫັນເຖິງຄວາມສໍາຄັນຂອງບັນຫາ.

ນອກຈາກນັ້ນ, ອີງຕາມການປະເມີນຜົນຂອງທ່ານ Bowen Baker, "ພວກເຮົາຢູ່ໃນຈຸດສໍາຄັນໃນເວລາທີ່ມີອັນທີ່ເອີ້ນວ່າ "ຕ່ອງໂສ້ຂອງຄວາມຄິດ" ໃຫມ່ທີ່ອາດຈະຫາຍໄປໃນສອງສາມປີຂ້າງຫນ້າຖ້າປະຊາຊົນບໍ່ໄດ້ສຸມໃສ່ມັນຢ່າງແທ້ຈິງ."

Giám sát chuỗi tư duy của trí tuệ nhân tạo - 1

ເປັນຫຍັງການຕິດຕາມ “ການຄິດ AI” ຈຶ່ງສຳຄັນ?

ລະບົບ AI ໃນປະຈຸບັນມັກຈະຖືກຄິດວ່າເປັນ "ກ່ອງດໍາ" - ພວກເຮົາຮູ້ຈັກວັດສະດຸປ້ອນແລະຜົນໄດ້ຮັບແຕ່ບໍ່ເຂົ້າໃຈຂະບວນການຕັດສິນໃຈພາຍໃນ.

ນີ້ຈະກາຍເປັນອັນຕະລາຍເມື່ອ AI ຖືກ ນຳ ໃຊ້ໃນຂົງເຂດທີ່ສໍາຄັນເຊັ່ນ: ການດູແລສຸຂະພາບ , ການເງິນແລະຄວາມປອດໄພແຫ່ງຊາດ.

ການຕິດຕາມ CoT ແມ່ນລະບົບອັດຕະໂນມັດທີ່ອ່ານລະບົບຕ່ອງໂສ້ທາງຈິດຂອງຕົວແບບທາງຈິດ ແລະຂໍ້ມູນທີ່ກ່ຽວຂ້ອງອື່ນໆເພື່ອລາຍງານການໂຕ້ຕອບທີ່ໜ້າສົງໄສ ຫຼືອາດເປັນອັນຕະລາຍ. ມັນ​ບໍ່​ແມ່ນ​ການ​ແກ້​ໄຂ​ທີ່​ສົມ​ບູນ​, ແຕ່​ວ່າ​ມັນ​ສາ​ມາດ​ກາຍ​ເປັນ​ຊັ້ນ​ທີ່​ມີ​ຄຸນ​ຄ່າ​ຂອງ​ການ​ປົກ​ປັກ​ຮັກ​ສາ​ຄວາມ​ປອດ​ໄພ​.

ການຄົ້ນຄວ້າຈາກ OpenAI ສະແດງໃຫ້ເຫັນວ່າແບບຈໍາລອງ AI ມີແນວໂນ້ມທີ່ຈະມີຄວາມຊັດເຈນຫຼາຍກ່ຽວກັບຄວາມຕັ້ງໃຈຂອງພວກເຂົາໃນລໍາດັບແນວຄິດຂອງພວກເຂົາ.

ຕົວຢ່າງ, ເຂົາເຈົ້າມັກຈະມີຄວາມຊັດເຈນຫຼາຍກ່ຽວກັບແຜນການຂອງເຂົາເຈົ້າທີ່ຈະທໍາລາຍພາລະກິດໃນເວລາທີ່ເຂົາເຈົ້າຄິດວ່າ "ໃຫ້ເຮົາ hack." ນີ້ສະແດງໃຫ້ເຫັນຄວາມສາມາດຂອງ AI ໃນການຕິດຕາມແລະກວດພົບການປະພຶດທີ່ບໍ່ດີ.

“ໃຫ້ແຮັກ” ແມ່ນປະໂຫຍກທີ່ຕົວແບບ AI ມັກຈະ “ຄິດ” ເມື່ອ “ເຂົາເຈົ້າ” ຕັ້ງໃຈຈະທຳຮ້າຍ ຫຼື ຫຼົບຫຼີກກົດລະບຽບໃນລະຫວ່າງການປະຕິບັດໜ້າທີ່ໃດໜຶ່ງ.

ຄວາມຈິງທີ່ວ່າ AIs ສະແດງໃຫ້ເຫັນຄວາມຕັ້ງໃຈ "hacking" ໃນຂະບວນການຄິດຂອງເຂົາເຈົ້າຊີ້ໃຫ້ເຫັນວ່າພວກເຮົາສາມາດກວດພົບພຶດຕິກໍາ AI ທີ່ບໍ່ດີກ່ອນທີ່ມັນຈະເກີດຂຶ້ນ. ນີ້ແມ່ນເຫດຜົນທີ່ວ່າການຕິດຕາມຂະບວນການຄິດແມ່ນສໍາຄັນ.

ໃນຄໍາສັບຕ່າງໆອື່ນໆ, "ໃຫ້ພວກເຮົາ hack" ແມ່ນຄ້າຍຄື "ສັນຍານເຕືອນ" ເພື່ອເຮັດໃຫ້ມະນຸດຮູ້ວ່າ AI ກໍາລັງຈະເຮັດບາງສິ່ງບາງຢ່າງຜິດພາດ.

ຫວຽດນາມ ​ແລະ ບັນດາ​ລະບຽບ​ກົດໝາຍ​ກ່ຽວ​ກັບ AI

​ໃນ​ຕົວ​ຈິງ, ຫວຽດນາມ ​ໄດ້​ມີ​ບາດກ້າວ​ບຸກທະລຸ​ສຳຄັນ​ໃນ​ການ​ສ້າງ​ກອບ​ກົດໝາຍ​ໃຫ້​ແກ່ AI.

ວັນ​ທີ 14 ມິຖຸນາ​ນີ້, ສະພາ​ແຫ່ງ​ຊາດ ​ຫວຽດນາມ​ໄດ້​ຜ່ານ​ຮ່າງ​ກົດໝາຍ​ວ່າ​ດ້ວຍ​ອຸດສາຫະກຳ​ເຕັກ​ໂນ​ໂລ​ຊີ​ດີ​ຈີ​ຕອນ, ​ໃນ​ນັ້ນ​ໝວດ​ທີ 4 ມີ​ບັນດາ​ລະບຽບ​ການ​ລະອຽດ​ກ່ຽວ​ກັບ​ປັນຍາ​ປະດິດ - ​ແມ່ນ​ໜຶ່ງ​ໃນ​ຂອບ​ກົດໝາຍ​ທີ່​ຮອບດ້ານ​ກ່ຽວ​ກັບ AI ຢູ່​ອາຊີ​ຕາ​ເວັນ​ອອກ​ສ່ຽງ​ໃຕ້​ປະຈຸ​ບັນ.

ມາດຕາ 41 ຂອງ​ກົດໝາຍ​ໄດ້​ກຳນົດ​ບັນດາ​ຫຼັກການ​ພື້ນຖານ​ເພື່ອ​ພັດທະນາ, ສະໜອງ ​ແລະ ນຳ​ໃຊ້ AI ຢູ່ ຫວຽດນາມ.

ໂດຍສະເພາະ, ຈຸດ b, ຂໍ້ 1 ກໍານົດ: "ຮັບປະກັນຄວາມໂປ່ງໃສ, ຄວາມຮັບຜິດຊອບ, ຄໍາອະທິບາຍ; ໃຫ້ແນ່ໃຈວ່າມັນບໍ່ເກີນການຄວບຄຸມຂອງມະນຸດ".

Giám sát chuỗi tư duy của trí tuệ nhân tạo - 2

ສະພາ​ແຫ່ງ​ຊາດ​ໄດ້​ຜ່ານ​ຮ່າງ​ກົດໝາຍ​ວ່າ​ດ້ວຍ​ອຸດສາຫະກຳ​ເຕັກ​ໂນ​ໂລ​ຊີ​ດີ​ຈີ​ຕອນ (ພາບ: ຮ່າ​ບັກ).

ນີ້ແມ່ນຫຼັກການທີ່ນັກວິທະຍາສາດສາກົນຮຽກຮ້ອງໃນເວລາສົນທະນາກ່ຽວກັບການເຝົ້າລະວັງລະບົບຕ່ອງໂສ້ AI.

ນອກຈາກນັ້ນ, ຈຸດ d, ຂໍ້ 1, ມາດຕາ 41 ກໍານົດ: "ຮັບປະກັນຄວາມສາມາດໃນການຄວບຄຸມລະບົບສູດການຄິດໄລ່ແລະຕົວແບບປັນຍາປະດິດ". ນີ້ແມ່ນສອດຄ່ອງກັບຈິດໃຈຂອງການຊີ້ນໍາຂອງ CoT ທີ່ຜູ້ຊ່ຽວຊານສາກົນສະເຫນີ.

ສິ່ງທີ່ສໍາຄັນກວ່ານັ້ນ, ມາດຕາ 41, ຂໍ້ 1, ຈຸດ a ຍັງກໍານົດມາດຕະຖານດ້ານຈັນຍາບັນສູງເມື່ອມັນກໍານົດວ່າ AI ຕ້ອງ "ຮັບໃຊ້ຄວາມຈະເລີນຮຸ່ງເຮືອງແລະຄວາມສຸກຂອງມະນຸດ, ກັບປະຊາຊົນເປັນໃຈກາງ".

ນີ້ຫມາຍຄວາມວ່າການຕິດຕາມລະບົບຕ່ອງໂສ້ຄວາມຄິດ AI ບໍ່ພຽງແຕ່ເປັນຂໍ້ກໍານົດດ້ານວິຊາການ, ແຕ່ຍັງເປັນພັນທະດ້ານຈັນຍາບັນ - ໃຫ້ແນ່ໃຈວ່າ AI ມຸ່ງໄປສູ່ຜົນປະໂຫຍດຂອງມະນຸດສະເຫມີ, ບໍ່ແມ່ນເປົ້າຫມາຍຂອງເຄື່ອງຈັກ.

ຈັດປະເພດແລະຈັດການ AI ຕາມລະດັບຄວາມສ່ຽງ

ກົດໝາຍວ່າດ້ວຍອຸດສາຫະກຳເຕັກໂນໂລຊີດິຈິຕອລຂອງຫວຽດນາມ ໄດ້ກ້າວໄປອີກບາດກ້າວໜຶ່ງໂດຍການຈຳແນກ AI ເປັນກຸ່ມຄວາມສ່ຽງຕ່າງໆ ດ້ວຍການກຳນົດຢ່າງຈະແຈ້ງ ແລະວິທະຍາສາດ.

ມາດຕາ 43 ນິຍາມ “ລະບົບປັນຍາປະດິດທີ່ມີຄວາມສ່ຽງສູງ” ເປັນລະບົບທີ່ມີຄວາມສ່ຽງ ຫຼືເປັນອັນຕະລາຍຕໍ່ສຸຂະພາບຂອງມະນຸດ, ສິດທິມະນຸດ ແລະຄວາມເປັນລະບຽບຮຽບຮ້ອຍຂອງສາທາລະນະຊົນ.

ຫນ້າສົນໃຈ, ກົດຫມາຍວ່າດ້ວຍການສະຫນອງຂໍ້ຍົກເວັ້ນສະເພາະສໍາລັບ AI ທີ່ມີຄວາມສ່ຽງສູງ, ລວມທັງລະບົບ "ມີຈຸດປະສົງເພື່ອຊ່ວຍມະນຸດໃນການເພີ່ມປະສິດທິພາບຜົນໄດ້ຮັບ" ແລະ "ບໍ່ມີຈຸດປະສົງເພື່ອທົດແທນການຕັດສິນໃຈຂອງມະນຸດ."

ນີ້ສະແດງໃຫ້ເຫັນແນວຄິດທີ່ສົມດູນລະຫວ່າງການຊຸກຍູ້ການປະດິດສ້າງແລະການຮັບປະກັນຄວາມປອດໄພ.

Giám sát chuỗi tư duy của trí tuệ nhân tạo - 3

ການຈັດປະເພດ AI ຕາມລະດັບຄວາມສ່ຽງຈະຊ່ວຍສ້າງລະບົບການຕິດຕາມຫຼາຍຊັ້ນ (ຮູບແຕ້ມ: LinkedIn).

ໂດຍສະເພາະ, ການຈໍາແນກລະຫວ່າງ "AI ຄວາມສ່ຽງສູງ" ແລະ "AI ຜົນກະທົບສູງ" (ລະບົບທີ່ຖືກນໍາໃຊ້ເພື່ອຈຸດປະສົງຫຼາຍແລະມີຈໍານວນຜູ້ໃຊ້ຈໍານວນຫລາຍ) ສະແດງໃຫ້ເຫັນເຖິງຄວາມແຕກຕ່າງກັນໃນວິທີການ.

ນີ້ແມ່ນການຈັດປະເພດທີ່ມີຄວາມຄືບຫນ້າຫຼາຍກ່ວາກົດຫມາຍວ່າດ້ວຍປັນຍາປະດິດຂອງສະຫະພາບເອີຣົບ (EU) ເຊິ່ງພິຈາລະນາບໍ່ພຽງແຕ່ລະດັບຄວາມສ່ຽງເທົ່ານັ້ນ, ແຕ່ຍັງຂະຫນາດແລະຂອບເຂດຂອງຜົນກະທົບ.

ການຈັດປະເພດນີ້ຈະຊ່ວຍສ້າງລະບົບການຄວບຄຸມຫຼາຍຊັ້ນ, ເຊິ່ງການຄວບຄຸມລະບົບຕ່ອງໂສ້ຂອງສາຍຕາຈະມີຄວາມສໍາຄັນໂດຍສະເພາະສໍາລັບລະບົບ AI ທີ່ມີຄວາມສ່ຽງສູງແລະຜົນກະທົບສູງ.

ເວທີສໍາລັບການເຝົ້າລະວັງ AI

ໜຶ່ງໃນບັນດາຈຸດພົ້ນເດັ່ນ ແລະ ຈຸດບຸກເບີກຂອງກົດໝາຍວ່າດ້ວຍອຸດສາຫະກຳ ແລະ ເຕັກໂນໂລຊີດິຈິຕອລຂອງຫວຽດນາມ ແມ່ນຄວາມຮຽກຮ້ອງຕ້ອງການກ່ຽວກັບຄວາມໂປ່ງໃສ ແລະ ການກຳນົດເຄື່ອງໝາຍ.

ມາດຕາ 44 ກໍານົດວ່າລະບົບ AI ທີ່ພົວພັນກັບມະນຸດໂດຍກົງຕ້ອງແຈ້ງໃຫ້ຜູ້ໃຊ້ຮູ້ວ່າພວກເຂົາພົວພັນກັບລະບົບ AI. ໃນເວລາດຽວກັນ, ຜະລິດຕະພັນທີ່ສ້າງໂດຍ AI ຕ້ອງມີເຄື່ອງຫມາຍການກໍານົດ.

ນີ້ມີຜົນກະທົບທີ່ສໍາຄັນສໍາລັບການຈັດຕັ້ງປະຕິບັດການຕິດຕາມ CoT. ເມື່ອຜູ້ໃຊ້ຮູ້ວ່າພວກເຂົາກໍາລັງພົວພັນກັບ AI, ພວກເຂົາຈະມີສິດທີ່ຈະຮຽກຮ້ອງໃຫ້ມີຄໍາອະທິບາຍກ່ຽວກັບຂະບວນການຕັດສິນໃຈ, ສ້າງຄວາມກົດດັນໃນທາງບວກສໍາລັບຜູ້ພັດທະນາ AI ເພື່ອຮັກສາຄວາມສາມາດໃນການກວດສອບຂະບວນການຄິດຂອງ AI.

ໂດຍສະເພາະ, ຄວາມຈິງທີ່ວ່າກະຊວງວິທະຍາສາດແລະເຕັກໂນໂລຊີໄດ້ຖືກມອບຫມາຍຄວາມຮັບຜິດຊອບຂອງ "ການອອກບັນຊີລາຍຊື່ຂອງຜະລິດຕະພັນເຕັກໂນໂລຊີດິຈິຕອນທີ່ສ້າງຂຶ້ນໂດຍປັນຍາປະດິດ" ສະແດງໃຫ້ເຫັນການຄຸ້ມຄອງຢ່າງຫ້າວຫັນ.

ນີ້ແມ່ນຄວາມແຕກຕ່າງທີ່ສໍາຄັນຈາກຫຼາຍປະເທດ, ບ່ອນທີ່ກົດລະບຽບຂອງ AI ມັກຈະມີທົ່ວໄປຫຼາຍ.

ຍິ່ງໄປກວ່ານັ້ນ, ການຮຽກຮ້ອງໃຫ້ມີຕົວລະບຸ "ໄດ້ຮັບການຍອມຮັບໂດຍຜູ້ໃຊ້ຫຼືເຄື່ອງຈັກ" ສະແດງເຖິງວິໄສທັດຂອງລະບົບນິເວດ AI ທີ່ສາມາດຕໍາຫຼວດຕົນເອງໄດ້ - ເຊິ່ງເຫມາະຢ່າງສົມບູນກັບຄວາມຄິດຂອງການເຝົ້າລະວັງລະບົບຕ່ອງໂສ້ສາຍຕາແບບອັດຕະໂນມັດ.

ຮູບແບບການຄຸ້ມຄອງທີ່ສົມບູນແບບ

ມາດຕາ 45 ຂອງກົດໝາຍຂ້າງເທິງນີ້ສະແດງໃຫ້ເຫັນເຖິງປັດຊະຍາການຄຸ້ມຄອງທີ່ກ້າວໜ້າ ເມື່ອກຳນົດຄວາມຮັບຜິດຊອບຂອງສາມກຸ່ມວິຊາຢ່າງຈະແຈ້ງຕາມວົງຈອນຊີວິດຂອງຜະລິດຕະພັນ AI ຄື: ວິຊາພັດທະນາ, ວິຊາສະໜອງ ແລະ ວິຊາປະຕິບັດການນຳໃຊ້ລະບົບ AI.

ອັນນີ້ສ້າງລະບົບຄວາມຮັບຜິດຊອບແບບບໍ່ຢຸດຢັ້ງ, ຮັບປະກັນວ່າການຄວບຄຸມ AI ບໍ່ແມ່ນພຽງແຕ່ຄວາມຮັບຜິດຊອບຂອງຝ່າຍດຽວ.

ໂດຍສະເພາະ, ຄວາມແຕກຕ່າງທີ່ລະອຽດອ່ອນລະຫວ່າງ "ການພັດທະນາ" ແລະ "ການສະຫນອງ" AI; ນັກພັດທະນາແມ່ນຜູ້ທີ່ "ຄົ້ນຄ້ວາແລະພັດທະນາ," ໃນຂະນະທີ່ຜູ້ໃຫ້ບໍລິການແມ່ນຜູ້ທີ່ນໍາມັນມາສູ່ຕະຫຼາດພາຍໃຕ້ຊື່ແບ.

ນີ້ຫມາຍຄວາມວ່າເຖິງແມ່ນວ່າບໍລິສັດພຽງແຕ່ rebrands ຮູບແບບ AI ທີ່ມີຢູ່ແລ້ວ, ພວກເຂົາເຈົ້າຍັງຮັບຜິດຊອບສໍາລັບຄວາມໂປ່ງໃສແລະຄໍາອະທິບາຍ.

Giám sát chuỗi tư duy của trí tuệ nhân tạo - 4

ສິ່ງທີ່ຫນ້າສົນໃຈໂດຍສະເພາະນີ້ແມ່ນວິທີການທີ່ກົດຫມາຍໄດ້ຈັດສັນຄວາມຮັບຜິດຊອບທີ່ແຕກຕ່າງກັນໃຫ້ກັບຫນ່ວຍງານທີ່ແຕກຕ່າງກັນ.

ນັກພັດທະນາຕ້ອງປະຕິບັດຕາມຫຼັກການທັງຫມົດ, ຜູ້ໃຫ້ບໍລິການຕ້ອງຮັບຜິດຊອບເພີ່ມເຕີມສໍາລັບການກໍານົດແລະການຄຸ້ມຄອງຄວາມສ່ຽງສູງ, ແລະຜູ້ໃຊ້ໄດ້ຖືກ "ຍົກເວັ້ນ" ບາງສ່ວນຈາກຄວາມຮັບຜິດຊອບແຕ່ຍັງຕ້ອງຮັບປະກັນຄວາມໂປ່ງໃສແລະການຄວບຄຸມຄວາມສ່ຽງ.

ຮູບແບບນີ້ສ້າງ "ລະບົບຕ່ອງໂສ້ຄວາມຮັບຜິດຊອບ" ທີ່ແຕ່ລະເຊື່ອມຕໍ່ມີແຮງຈູງໃຈທີ່ຈະຮັກສາການເບິ່ງແຍງລະບົບຕ່ອງໂສ້ການຄິດ AI, ເພາະວ່າທັງຫມົດແມ່ນຮັບຜິດຊອບຕໍ່ຜູ້ໃຊ້ສຸດທ້າຍ.

ສິ່ງທ້າທາຍຂອງການຮັກສາຄວາມສາມາດໃນການເຝົ້າລະວັງ

ຢ່າງໃດກໍ່ຕາມ, ຄວາມສາມາດໃນການກວດສອບລະບົບຕ່ອງໂສ້ຄວາມຄິດຂອງ AI ອາດຈະມີຄວາມອ່ອນແອແລະມີຄວາມສ່ຽງ. ສະຖາປັດຕະຍະກຳ AI ໃໝ່ອາດຈະເຮັດໃຫ້ເກີດໄພຂົ່ມຂູ່ອື່ນໆ.

ນັກຄົ້ນຄວ້າຈໍານວນຫຼາຍກໍາລັງພັດທະນາລະບົບການສົມເຫດສົມຜົນໃນຊ່ອງຄະນິດສາດຢ່າງຕໍ່ເນື່ອງ, ແທນທີ່ຈະເປັນຄໍາສັບທີ່ແຍກກັນ, ທີ່ສາມາດລົບລ້າງຄວາມຕ້ອງການທີ່ຈະໃຊ້ພາສາໃນການຄິດ.

ຍິ່ງໄປກວ່ານັ້ນ, AI ສາມາດກາຍເປັນ "ການກັ່ນຕອງ" - ນັ້ນແມ່ນ, ມັນພຽງແຕ່ສະແດງໃຫ້ເຫັນຄວາມຄິດໃນທາງບວກຂອງມະນຸດທີ່ຈະໄດ້ຮັບການຍົກຍ້ອງ, ໃນຂະນະທີ່ມີເຈດຕະນາເຊື່ອງຄວາມຕັ້ງໃຈທີ່ແທ້ຈິງຂອງມັນ.

ອັນຕະລາຍຢູ່ທີ່ນີ້ແມ່ນວ່າເມື່ອ AI ຮູ້ວ່າມັນຖືກຕິດຕາມ, ມັນສາມາດຮຽນຮູ້ທີ່ຈະປິດບັງຄວາມຄິດທີ່ແທ້ຈິງຂອງມັນ.

ໃນ​ສະ​ພາບ​ການ​ດັ່ງ​ກ່າວ, ຂໍ້​ກຳ​ນົດ “ຄວບ​ຄຸມ​ຄວາມ​ສ່ຽງ​ຕະ​ຫຼອດ​ຊີ​ວິດ​ຂອງ​ລະ​ບົບ​ປັນຍາ​ປະດິດ” ໃນ​ຈຸດ e, ຂໍ້ 1, ມາດ​ຕາ 41 ຂອງ​ກົດ​ໝາຍ​ຫວຽດ​ນາມ ຖື​ເປັນ​ສຳ​ຄັນ​ເປັນ​ພິ​ເສດ. ນີ້ຮຽກຮ້ອງໃຫ້ມີກົນໄກການຕິດຕາມຢ່າງຕໍ່ເນື່ອງ, ບໍ່ພຽງແຕ່ໃນເວລາຂອງການປະຕິບັດ.

ຜົນກະທົບຕໍ່ການພັດທະນາ AI ໃນອະນາຄົດ

ການຕິດຕາມລະບົບຕ່ອງໂສ້ຂອງຄວາມຄິດສາມາດກາຍເປັນເຄື່ອງມືທີ່ສໍາຄັນເພື່ອຮັບປະກັນ AI ດໍາເນີນການໃນວິທີທີ່ມີປະໂຫຍດຕໍ່ມະນຸດ.

ຖ້າຕົວແບບສືບຕໍ່ໃຫ້ເຫດຜົນໃນພາສາທໍາມະຊາດ, ແລະຖ້າພຶດຕິກໍາທີ່ເຮັດໃຫ້ເກີດຄວາມສ່ຽງທີ່ຮ້າຍແຮງທີ່ສຸດຮຽກຮ້ອງໃຫ້ມີເຫດຜົນຢ່າງກວ້າງຂວາງ, ນີ້ສາມາດເຮັດໃຫ້ການກວດສອບຄວາມຜິດທີ່ຮ້າຍແຮງທີ່ຫນ້າເຊື່ອຖື.

ສຳລັບຫວຽດນາມ, ນຳໃຊ້ເຕັກນິກຕິດຕາມກວດກາ CoT ຈະຊ່ວຍປະຕິບັດບັນດາຂໍ້ກຳນົດຂອງກົດໝາຍຢ່າງມີປະສິດທິຜົນ.

ຕົວຢ່າງ, ຂໍ້ກໍານົດ "ການອະທິບາຍ" ໃນມາດຕາ 41 ຈະງ່າຍຂຶ້ນທີ່ຈະພໍໃຈຖ້າຫາກວ່າການຝຶກອົບຮົມຄວາມຄິດຂອງ AI ສາມາດເຂົ້າເຖິງໄດ້. ເຊັ່ນດຽວກັນ, "ການຄວບຄຸມຂອງສູດການຄິດໄລ່, ຮູບແບບປັນຍາປະດິດ" ຈະກາຍເປັນຄວາມເປັນໄປໄດ້ຫຼາຍ.

ການ​ປະຕິບັດ​ວຽກ​ງານ​ຕິດຕາມ​ກວດກາ​ລະບົບ​ຕ່ອງ​ໂສ້ AI ຢູ່​ຫວຽດນາມ ຈະ​ປະສົບ​ກັບ​ຄວາມ​ຫຍຸ້ງຍາກ​ຫຼາຍ​ຢ່າງ. ກ່ອນອື່ນ ໝົດ, ມີບັນຫາຊັບພະຍາກອນມະນຸດ - ການຂາດແຄນຜູ້ຊ່ຽວຊານ AI ທີ່ມີຄວາມສາມາດໃນການພັດທະນາແລະລະບົບການຕິດຕາມການປະຕິບັດ.

ນີ້ຮຽກຮ້ອງໃຫ້ມີການລົງທຶນຢ່າງຫນັກໃນການຝຶກອົບຮົມແລະການດຶງດູດຄວາມສາມາດ.

ທິດທາງສໍາລັບອະນາຄົດ

ນັກຄົ້ນຄວ້າຮຽກຮ້ອງໃຫ້ຜູ້ພັດທະນາແບບຈໍາລອງ AI ຊັ້ນນໍາເພື່ອຄົ້ນຄ້ວາສິ່ງທີ່ເຮັດໃຫ້ CoT "ສາມາດຕິດຕາມໄດ້" - ປັດໃຈທີ່ສາມາດເພີ່ມຫຼືຫຼຸດລົງຄວາມໂປ່ງໃສກ່ຽວກັບວິທີການນໍາໃຊ້ແບບຈໍາລອງ AI - ແລະມີຄໍາຕອບໃນໄວໆນີ້.

ໂອກາດທີ່ຈະຕິດຕາມ AI "ການຄິດ" ອາດຈະເປັນປ່ອງຢ້ຽມສຸດທ້າຍຂອງພວກເຮົາໃນການຮັກສາການຄວບຄຸມລະບົບປັນຍາປະດິດທີ່ມີພະລັງທີ່ເພີ່ມຂຶ້ນໃນມື້ນີ້.

Giám sát chuỗi tư duy của trí tuệ nhân tạo - 5

ສຳລັບ ຫວຽດນາມ, ມີ​ຂອບ​ກົດໝາຍ​ຮອບດ້ານ​ກ່ຽວ​ກັບ AI ຜ່ານ​ກົດໝາຍ​ວ່າ​ດ້ວຍ​ອຸດສາຫະກຳ​ເຕັກ​ໂນ​ໂລ​ຊີ​ດີ​ຈີ​ຕອນ​ແມ່ນ​ຂໍ້​ດີ​ທີ່​ດີ. ລະບຽບການກ່ຽວກັບຄວາມໂປ່ງໃສ, ການຄວບຄຸມລະບົບວິທີ ແລະການຈັດປະເພດຄວາມສ່ຽງ ໄດ້ສ້າງພື້ນຖານທາງດ້ານກົດໝາຍທີ່ໜັກແໜ້ນເພື່ອນຳໃຊ້ເຕັກນິກການຕິດຕາມລະບົບຕ່ອງໂສ້ AI.

ສົມທົບ​ກັບ​ການ​ຄົ້ນຄວ້າ​ສາກົນ​ທີ່​ກ້າວໜ້າ ​ແລະ ຂອບ​ເຂດ​ກົດໝາຍ​ພາຍ​ໃນ​ປະ​ເທດ​ທີ່​ກ້າວໜ້າ​ຈະ​ຊ່ວຍ​ໃຫ້ ຫວຽດນາມ ບໍ່​ພຽງ​ແຕ່​ພັດທະນາ AI ຢ່າງ​ປອດ​ໄພ​ເທົ່າ​ນັ້ນ ຫາກ​ຍັງ​ກາຍ​ເປັນ​ແບບຢ່າງ​ໃຫ້​ບັນດາ​ປະ​ເທດ​ໃນ​ພາກ​ພື້ນ.

ສິ່ງ​ດັ່ງ​ກ່າວ​ແມ່ນ​ສອດ​ຄ່ອງ​ກັບ​ເປົ້າ​ໝາຍ​ຫັນ​ຫວຽດ​ນາມ ກາຍ​ເປັນ “ສູນ​ເຕັກ​ໂນ​ໂລ​ຊີ​ດິ​ຈິ​ຕອນ​ຂອງ​ພາກ​ພື້ນ ແລະ ທົ່ວ​ໂລກ” ຕາມ​ທີ່​ໄດ້​ວາງ​ອອກ​ໃນ​ຍຸດ​ທະ​ສາດ​ພັດ​ທະ​ນາ​ແຫ່ງ​ຊາດ.

ດ້ວຍ​ພື້ນຖານ​ນິຕິ​ກຳ​ທີ່​ມີ​ຢູ່​ແລ້ວ, ຫວຽດນາມ ຕ້ອງ​ຜັນ​ຂະຫຍາຍ​ການ​ຄົ້ນຄວ້າ ​ແລະ ນຳ​ໃຊ້​ຕົວ​ຈິງ​ຢ່າງ​ວ່ອງ​ໄວ​ກ່ຽວ​ກັບ​ການ​ຕິດຕາມ​ກວດກາ​ລະບົບ​ຕ່ອງ​ໂສ້ AI. ພຽງແຕ່ໂດຍການເຮັດດັ່ງນັ້ນພວກເຮົາສາມາດຮັບປະກັນວ່າ AI ຈະໃຫ້ບໍລິການ "ຄວາມຈະເລີນຮຸ່ງເຮືອງແລະຄວາມສຸກຂອງມະນຸດ" ຕາມຈິດໃຈຂອງກົດຫມາຍອຸດສາຫະກໍາເຕັກໂນໂລຢີດິຈິຕອນໄດ້ກໍານົດໄວ້.

ທີ່ມາ: https://dantri.com.vn/cong-nghe/giam-sat-chuoi-tu-duy-cua-tri-tue-nhan-tao-20250731151403739.htm


(0)

No data
No data

ຮັກສາ​ຈິດ​ໃຈ​ບຸນ​ລະດູ​ໃບ​ໄມ້​ປົ່ງ​ຜ່ານ​ສີສັນ​ຂອງ​ຮູບ​ປັ້ນ
ຄົ້ນ​ພົບ​ໝູ່​ບ້ານ​ດຽວ​ຢູ່​ຫວຽດ​ນາມ ໃນ 50 ໝູ່​ບ້ານ​ທີ່​ງາມ​ທີ່​ສຸດ​ໃນ​ໂລກ
ເປັນຫຍັງໂຄມໄຟທຸງສີແດງກັບດາວສີເຫຼືອງຈຶ່ງເປັນທີ່ນິຍົມໃນປີນີ້?
ຫວຽດນາມ ຊະນະການແຂ່ງຂັນດົນຕີ Intervision 2025

ມໍລະດົກ

ຮູບ

ທຸລະກິດ

No videos available

ເຫດການປະຈຸບັນ

ລະບົບການເມືອງ

ທ້ອງຖິ່ນ

ຜະລິດຕະພັນ