
ຕອນບ່າຍວັນທີ 27/11, ພາຍໃຕ້ການຊີ້ນຳຂອງທ່ານຮອງ ປະທານສະພາແຫ່ງຊາດ ເລມິນຮວານ, ສະພາແຫ່ງຊາດໄດ້ປຶກສາຫາລືຢູ່ຫໍສະພາແຫ່ງຊາດກ່ຽວກັບຮ່າງກົດໝາຍວ່າດ້ວຍປັນຍາປະດິດ.
ການຂາດລະບຽບການກ່ຽວກັບການຊົດເຊີຍແລະຄວາມຮັບຜິດຊອບປະກັນໄພ
ກ່ຽວກັບມາດຕາ 20 ຂອງຮ່າງກົດໝາຍວ່າດ້ວຍກົນໄກທົດສອບຄວບຄຸມພັດທະນາປັນຍາປະດິດ, ທ່ານປະທານສະພາແຫ່ງຊາດຮ່ວາງມິນ ຮ່ຽນ ໃຫ້ຮູ້ວ່າ: ຈຸດປະສົງຕົ້ນຕໍຂອງກົນໄກທົດສອບປັນຍາປະດິດ (AI) ແມ່ນການລົບລ້າງສິ່ງກີດຂວາງດ້ານກົດໝາຍທີ່ກີດຂວາງບັນດາຕົວແບບ AI, ເຮັດໃຫ້ການທົດສອບຈຳກັດໄດ້ຮັບຂໍ້ມູນເພື່ອພິສູດໃຫ້ເຫັນປະສິດທິຜົນ. ວິທີການນີ້ຍັງສອດຄ່ອງກັບແນວຄິດນິຕິບັນຍັດຂອງພວກເຮົາໃນປະຈຸບັນ, ເຊິ່ງແມ່ນສະຖາບັນຕ້ອງໄປກ່ອນເພື່ອປູທາງໄປສູ່ການພັດທະນາ.

ຜູ້ແທນເນັ້ນໜັກວ່າ: ລະບຽບການກ່ຽວກັບກົນໄກການທົດສອບຄວບຄຸມຕ້ອງແມ່ນຈຸດສຸມຂອງກອບກົດໝາຍກ່ຽວກັບ AI, ສະນັ້ນ ອົງການຮ່າງກົດໝາຍຕ້ອງຄົ້ນຄວ້າ ແລະ ກຳນົດບັນດາບັນຫານີ້ໃຫ້ລະອຽດກວ່າໃນຮ່າງກົດໝາຍ.
ຕາມນັ້ນແລ້ວ, ຜູ້ແທນໄດ້ສະເໜີໃຫ້ກວດກາຄືນບັນດາລະບຽບການກ່ຽວກັບບັນດາອົງການ ແລະ ບຸກຄົນທີ່ເຂົ້າຮ່ວມການທົດລອງຄວບຄຸມຖືກຍົກເວັ້ນຫຼືມີພັນທະການປະຕິບັດບາງຢ່າງຖືກຫຼຸດລົງຕາມກຳນົດໃນຂໍ້ 2, ມາດຕາ 20 ຂອງຮ່າງກົດໝາຍ. ລະບຽບການດັ່ງກ່າວເຮັດໃຫ້ຂອບເຂດການຍົກເວັ້ນຖືກຈໍາກັດຢູ່ໃນຂໍ້ກໍານົດຂອງກົດຫມາຍສະບັບນີ້, ໃນຂະນະທີ່ລະບົບ AI ມັກຈະກ່ຽວຂ້ອງກັບຂໍ້ກໍານົດດ້ານກົດຫມາຍອື່ນໆທີ່ກ່ຽວຂ້ອງ.
ບັນດາຜູ້ແທນໄດ້ອ້າງເຖິງກົນໄກຂອງການທົດສອບ AI ໃນເຮືອບິນໂດຍສານທີ່ຂັບລົດດ້ວຍຕົນເອງໃນປະເທດຍີ່ປຸ່ນ, ເຊິ່ງໄດ້ຮັບການຍົກເວັ້ນຈາກກົດລະບຽບບາງຢ່າງກ່ຽວກັບການຮັບປະກັນຄວາມປອດໄພຂອງການບິນ. ຫຼື ການທົດລອງລົດຂັບເອງໃນປະເທດຈີນ ແລະ ຍີ່ປຸ່ນ ແມ່ນໄດ້ຮັບການຍົກເວັ້ນຈາກຂໍ້ກໍານົດຂອງກົດໝາຍວ່າດ້ວຍການປົກປ້ອງຂໍ້ມູນສ່ວນຕົວ ເຊິ່ງແມ່ນການນຳໃຊ້ຂໍ້ມູນຮູບພາບໂດຍບໍ່ຈໍາເປັນຕ້ອງມົວໃບໜ້າຂອງຜູ້ເຂົ້າຮ່ວມການສັນຈອນເພື່ອຝຶກຊ້ອມ ແລະ ຝຶກວິໄສທັດ AI.
ຈາກປະສົບການຂອງປະເທດອື່ນໆ, ບັນດາຜູ້ແທນໄດ້ສະເໜີໃຫ້ອົງການທີ່ຮັບຜິດຊອບຮ່າງການສຶກສາພຽງແຕ່ກຳນົດໄວ້ໃນຂໍ້ 2, ມາດຕາ 20 ໃນທິດທາງກຳນົດຢ່າງຈະແຈ້ງວ່າ ອົງການຈັດຕັ້ງ ແລະ ບຸກຄົນທີ່ເຂົ້າຮ່ວມການທົດລອງຄວບຄຸມໄດ້ຮັບການຍົກເວັ້ນ ຫຼື ຫຼຸດຈາກບາງພັນທະທີ່ກຳນົດໄວ້ໃນກົດໝາຍສະບັບນີ້ ແລະ ກົດໝາຍອື່ນໆທີ່ກ່ຽວຂ້ອງ.

ມາດຕາ 5, ມາດຕາ 20 ມອບໝາຍໃຫ້ອົງການຄຸ້ມຄອງລັດກ່ຽວກັບ AI ຈັດຕັ້ງການຮັບ, ປະເມີນ ແລະ ປຸງແຕ່ງເອກະສານເຂົ້າຮ່ວມບັນດາການເຄື່ອນໄຫວທົດສອບຄວບຄຸມຕາມຂະບວນການປະເມີນ ແລະ ຕອບສະໜອງໄວ.
ທ່ານຜູ້ແທນ ຮ່ວາງມິນ ໃຫ້ຮູ້ວ່າ: ລະບົບ AI ບໍ່ພຽງແຕ່ແມ່ນບັນດາບັນຫາກ່ຽວກັບເຕັກໂນໂລຢີ, ລະບົບວິທີເທົ່ານັ້ນ... ຫາກຍັງແມ່ນບັນດາບັນຫາຫຼາຍດ້ານ ແລະ ວິຊາສະເພາະ. ດັ່ງນັ້ນ, ຂໍ້ກໍານົດໃນຂໍ້ 5 ອາດຈະເຫມາະສົມສໍາລັບລະບົບ AI ທົ່ວໄປເທົ່ານັ້ນ, ເຊັ່ນ: AI ທົ່ວໄປ (ChatGPT, Gemini) ... ສໍາລັບລະບົບ AI ພິເສດ, ລັກສະນະ interdisciplinary ແມ່ນສູງຫຼາຍ.
ໂດຍອ້າງເຖິງລະບົບ DrAid, ຜະລິດຕະພັນ AI ໜູນຊ່ວຍວິນິດໄສພາບພົດທາງການແພດທີ່ພັດທະນາໂດຍ VinBrain, ຜູ້ແທນ ຮວ່າງມິນຮຽບ ໃຫ້ຮູ້ວ່າ, ຖ້າມີການລົງທະບຽນເພື່ອທົດສອບ, ຈະບໍ່ສາມາດມີໜ້າທີ່ຕິດຕາມ ແລະ ຄຸ້ມຄອງຂອງກະຊວງສາທາລະນະສຸກໄດ້. ດັ່ງນັ້ນ, ໃນບາງປະເທດ, ການປະເມີນແລະການອອກໃບອະນຸຍາດຂອງການທົດສອບການຄວບຄຸມຂອງລະບົບ AI ໄດ້ຖືກມອບຫມາຍໃຫ້ສະພາລະຫວ່າງວິຊາການ.
ບັນດາຜູ້ແທນໄດ້ສະເໜີປັບປຸງບັນດາຂໍ້ກຳນົດໃນຂໍ້ 5, ມາດຕາ 20 ຂອງຮ່າງກົດໝາຍ ໂດຍຊີ້ນຳ “ອົງການຄຸ້ມຄອງລັດກ່ຽວກັບປັນຍາປະດິດ ເປັນປະທານ, ສົມທົບກັບບັນດາອົງການຄຸ້ມຄອງລັດທີ່ກ່ຽວຂ້ອງຈັດຕັ້ງການຕ້ອນຮັບ, ກວດກາ ແລະ ປຸງແຕ່ງເອກະສານເຂົ້າຮ່ວມບັນດາວຽກງານທົດສອບຄວບຄຸມ”.
ທ່ານຜູ້ແທນຍັງກ່າວວ່າ, ຂໍ້ກຳນົດໃນມາດຕາ 20 ຂອງຮ່າງກົດໝາຍຍັງຂາດຂໍ້ກຳນົດກ່ຽວກັບການຊົດເຊີຍ ແລະ ຄວາມຮັບຜິດຊອບດ້ານປະກັນໄພ. ແລະມັນບໍ່ໄດ້ກ່າວເຖິງວ່າໃຜເປັນຜູ້ຮັບຜິດຊອບຖ້າການທົດສອບເຮັດໃຫ້ເກີດຄວາມເສຍຫາຍຕໍ່ບຸກຄົນທີສາມ. ອີງຕາມຫຼັກການທົ່ວໄປ, ອົງການຈັດຕັ້ງການທົດສອບຫຼືບຸກຄົນຈະຕ້ອງຈ່າຍຄ່າຊົດເຊີຍທາງແພ່ງຖ້າເຮັດໃຫ້ເກີດຄວາມເສຍຫາຍ. ສະນັ້ນ, ທ່ານຜູ້ແທນຮ່ວາງມິນຮ່ວາສະເໜີໃຫ້ພິຈາລະນາເພີ່ມທະວີບົດບັນຍັດນີ້ເຂົ້າໃນຮ່າງກົດໝາຍ.
ຊອບແວ AI ທັງໝົດທີ່ປະຕິບັດງານຢູ່ຫວຽດນາມ ຕ້ອງໄດ້ຮັບການພ້ອມກັບ “ ຖານຂໍ້ມູນພື້ນຖານທີ່ເປັນມະນຸດແບບມາດຕະຖານ ”.
ທ່ານຮອງປະທານສະພາແຫ່ງຊາດ ເຈີ່ນດ້າຍກວາງ (ບັກນິງ) ຕີລາຄາສູງຮ່າງກົດໝາຍວ່າດ້ວຍການກຳນົດຫຼັກການເອົາປະຊາຊົນເປັນໃຈກາງ; ການຈັດປະເພດ ແລະການຄວບຄຸມຄວາມສ່ຽງ; ກວດກາລະບົບ AI ທີ່ມີຄວາມສ່ຽງສູງ; ແລະການພັດທະນາພື້ນຖານໂຄງລ່າງຄອມພິວເຕີແລະຂໍ້ມູນແຫ່ງຊາດ. ນີ້ແມ່ນກອບກົດໝາຍທີ່ກ້າວໜ້າ, ສອດຄ່ອງກັບທ່າອ່ຽງສາກົນ.

ເຖິງຢ່າງໃດກໍ່ຕາມ, ເພື່ອເຮັດໃຫ້ກົດໝາຍສະບັບນີ້ມີຄວາມສົມບູນຢ່າງແທ້ຈິງ ແລະ ມີວິໄສທັດໄລຍະຍາວ, ຜູ້ແທນໄດ້ສະເໜີເພີ່ມເຕີມທີ່ສຳຄັນຄື: ພິຈາລະນາ AI ເປັນ “ມະນຸດເກີດໃໝ່”. “ຫົວໜ່ວຍທີ່ສະຫຼາດແຕ່ບໍ່ມີຄວາມບໍລິສຸດ”: ບໍ່ຮູ້ກົດໝາຍ, ບໍ່ເຂົ້າໃຈຈັນຍາບັນ, ບໍ່ມີຄຸນຄ່າວັດທະນະທຳ, ແລະບໍ່ຈຳແນກຖືກຜິດ ຖ້າບໍ່ສອນ.
"ຖ້າພວກເຮົາພິຈາລະນາ AI ເປັນຫນ່ວຍງານທີ່ພົ້ນເດັ່ນຂື້ນ, ຄວາມຮັບຜິດຊອບຂອງພວກເຮົາບໍ່ພຽງແຕ່ຄວບຄຸມມັນເທົ່ານັ້ນ, ແຕ່ຍັງສອນມັນຕັ້ງແຕ່ເລີ່ມຕົ້ນ, ຄືກັບການສອນເດັກນ້ອຍກ່ຽວກັບຄຸນຄ່າຂອງມະນຸດມາດຕະຖານ. ແລະນີ້ຄວນຈະເປັນຂໍ້ບັງຄັບໃນກົດຫມາຍສະບັບນີ້, ບໍ່ພຽງແຕ່ເປັນຄໍາແນະນໍາ, "ຜູ້ແທນ Tran Van Lam ກ່າວ.
ບັນດາຜູ້ແທນສະເໜີໃຫ້ສະພາແຫ່ງຊາດເພີ່ມທະວີຫຼັກການໃນກົດໝາຍວ່າ: “ທຸກຊອບແວ AI ທີ່ດຳເນີນທຸລະກິດຢູ່ຫວຽດນາມ, ບໍ່ວ່າຈະພັດທະນາໂດຍບັນດາອົງການພາຍໃນ ຫຼື ຕ່າງປະເທດ, ຕ້ອງໄດ້ຮັບຄວາມພ້ອມດ້ວຍ ຖານຂໍ້ມູນມະນຸດທີ່ໄດ້ມາດຕະຖານ .”
ຕາມຜູ້ແທນແລ້ວ, “ຖານຂໍ້ມູນພື້ນຖານມະນຸດໄດ້ມາດຕະຖານ” ຕ້ອງມີຂໍ້ມູນພຽງພໍເພື່ອສອນ AI ໃຫ້ເຂົ້າໃຈກົດໝາຍຫວຽດນາມ; ສອນ AI ມາດຕະຖານຈັນຍາບັນ, ວັດທະນະທໍາ, ແລະປະເພນີອັນດີງາມຂອງຊາດ; ສອນ AI ຄວາມສາມາດໃນການກໍານົດທີ່ຖືກຕ້ອງແລະຜິດ, ມາດຕະຖານແລະບໍ່ໄດ້ມາດຕະຖານ; ຂໍ້ຈໍາກັດດ້ານພຶດຕິກໍາທີ່ບໍ່ຄວນເກີນ, ແລະກົດລະບຽບສໍາລັບການກໍານົດຄວາມສ່ຽງຕໍ່ມະນຸດ. ແລະສໍາຄັນທີ່ສຸດ, ໃຫ້ແນ່ໃຈວ່າຖານຂໍ້ມູນພື້ນຖານນີ້ສະເຫມີຕ້ອງເອົາຄວາມສໍາຄັນຢ່າງແທ້ຈິງໃນການຄຸ້ມຄອງພຶດຕິກໍາ AI; ຈະຕ້ອງບໍ່ຖືກຂຽນທັບ, ແທນທີ່, ຫຼືປິດການໃຊ້ງານໂດຍວິທີການ ຫຼືຂໍ້ມູນການຝຶກອົບຮົມອື່ນໆ. ນີ້ແມ່ນ "ແຫວນທອງ" ທາງດ້ານກົດຫມາຍແລະດ້ານວິຊາການທີ່ຮັບປະກັນວ່າ AI ຈະບໍ່ຫຼົງທາງ.

ເພື່ອປະຕິບັດທິດທາງນີ້ຢ່າງມີປະສິດທິຜົນ, ບັນດາຜູ້ແທນສະເໜີໃຫ້ກະຊວງວິທະຍາສາດ ແລະ ເຕັກໂນໂລຢີ ນຳໜ້າໃນການກໍ່ສ້າງຖານຂໍ້ມູນທີ່ເປັນເອກະພາບ, ມີມາດຕະຖານ, ປັບປຸງຢ່າງບໍ່ຢຸດ ຢັ້ງ ; ສະຫນອງມັນໃຫ້ແກ່ນັກພັດທະນາ AI ເປັນຄວາມຕ້ອງການບັງຄັບ. ລັດຖະບານຄວນພັດທະນາພື້ນຖານໂຄງລ່າງຄອມພິວເຕີແຫ່ງຊາດຢ່າງແຂງແຮງເພື່ອຮັບປະກັນວ່າ AI ຂອງຫວຽດນາມໄດ້ຮັບການຝຶກອົບຮົມດ້ວຍຄຸນຄ່າຂອງຫວຽດນາມ, ບໍ່ຂຶ້ນກັບຕົວແບບຕ່າງປະເທດ.
ໃນເວລາດຽວກັນ, ກໍ່ສ້າງສູນທົດສອບ AI ແຫ່ງຊາດເພື່ອປະເມີນພຶດຕິກໍາທີ່ບິດເບືອນທັນທີ, ຄວບຄຸມແບບຈໍາລອງທີ່ມີຄວາມສ່ຽງສູງ, ແລະການແຊກແຊງທັນທີເມື່ອມີສັນຍານທີ່ຈະເກີນຂອບເຂດ. ສົ່ງເສີມການສຶກສາ AI ໃນທົ່ວສັງຄົມ, ສຸມໃສ່ການຊ່ວຍເຫຼືອປະຊາຊົນ, ທຸລະກິດ, ແລະໂດຍສະເພາະແມ່ນພາກລັດໃຫ້ມີຄວາມສາມາດໃນການກໍານົດ, ນໍາໃຊ້, ແລະຕິດຕາມກວດກາ AI ຢ່າງຖືກຕ້ອງ.
ທ່ານຜູ້ແທນ Tran Van Lam ເນັ້ນໜັກວ່າ, “ກົດໝາຍວ່າດ້ວຍປັນຍາປະດິດປະຈຸບັນບໍ່ພຽງແຕ່ແມ່ນກົດໝາຍເຕັກໂນໂລຊີເທົ່ານັ້ນ, ຫາກຍັງແມ່ນກົດໝາຍຂອງອະນາຄົດ; ຄຳໝັ້ນສັນຍາຂອງສະພາແຫ່ງຊາດທີ່ມີຕໍ່ປະຊາຊົນ, ພວກຂ້າພະເຈົ້າພັດທະນາເຕັກໂນໂລຊີ ແຕ່ບໍ່ສູນເສຍການຄວບຄຸມ, ຍູ້ແຮງການປະດິດສ້າງ ແຕ່ບໍ່ໃຫ້ຄວາມສ່ຽງເກີນຂອບເຂດ, ບຳລຸງສ້າງ AI ດ້ວຍຄຸນຄ່າຫວຽດນາມ ເພື່ອຮັບໃຊ້ປະຊາຊົນຫວຽດນາມ”.
ທີ່ມາ: https://daibieunhandan.vn/phat-trien-cong-nghe-thuc-day-doi-moi-nhung-khong-de-rui-ro-vuot-tam-10397378.html






(0)