ກ່ຽວກັບ AI, ສະພາແຫ່ງຊາດໄດ້ອອກກົດໝາຍວ່າດ້ວຍອຸດສາຫະກຳ ເຕັກໂນໂລຊີດີຈີຕອນ , ລວມມີບັນດາບົດກຳນົດກ່ຽວກັບ AI. ນີ້ແມ່ນພື້ນຖານດ້ານກົດຫມາຍເບື້ອງຕົ້ນສໍາລັບການພັດທະນາແລະການນໍາໃຊ້ຂອງ AI. ແນວໃດກໍດີ, ລະບຽບການເຫຼົ່ານີ້ຍັງບໍ່ທັນສ້າງແລວທາງດ້ານກົດໝາຍຢ່າງຄົບຖ້ວນ, ເປີດກ້ວາງພຽງພໍເພື່ອອຳນວຍຄວາມສະດວກໃຫ້ແກ່ການຄົ້ນຄວ້າ, ພັດທະນາ, ການຈັດຕັ້ງປະຕິບັດ ແລະ ນຳໃຊ້ AI ແລະ ລະບົບນິເວດ AI ແບບຄົບຖ້ວນ.
ນອກຈາກນັ້ນ, ພວກເຮົາຍັງຂາດກົນໄກການຈັດປະເພດ ແລະ ຄວບຄຸມຄວາມສ່ຽງຂອງລະບົບ AI; ກົນໄກການກວດກາ, ອະນຸຍາດ ແລະ ຕິດຕາມລະບົບ AI, ໂດຍສະເພາະລະບົບ AI ທີ່ມີຄວາມສ່ຽງສູງ; ແລະ ຂາດກົນໄກ ແລະ ນະໂຍບາຍເພື່ອພັດທະນາ ແລະ ດຶງດູດແຫຼ່ງຊັບພະຍາກອນມະນຸດ AI ຄຸນນະພາບສູງ. ເຖິງວ່າມະຕິເລກທີ 57-NQ/TW ໄດ້ລະບຸຢ່າງຈະແຈ້ງວ່າ, ຕ້ອງ “ເຮັດໃຫ້ຂໍ້ມູນເປັນວິທີການຜະລິດຕົ້ນຕໍ” ແລະ “ພັດທະນາ ເສດຖະກິດ ຂໍ້ມູນ ແລະ ຕະຫຼາດຂໍ້ມູນ”, ການເກັບກຳ, ປຸງແຕ່ງ, ແບ່ງປັນ ແລະ ນຳໃຊ້ຂໍ້ມູນສຳລັບການຝຶກອົບຮົມຕົວແບບ AI ພວມປະສົບກັບຄວາມຫຍຸ້ງຍາກຫຼາຍຢ່າງ. ການເຊື່ອມຕໍ່ແລະການແບ່ງປັນຂໍ້ມູນລະຫວ່າງຖານຂໍ້ມູນແຫ່ງຊາດແລະຖານຂໍ້ມູນອຸດສາຫະກໍາຍັງຊ້າແລະບໍ່ຕອບສະຫນອງຄວາມຕ້ອງການສໍາລັບການພັດທະນາລະບົບ AI ຂະຫນາດໃຫຍ່.
ມັນເປັນມູນຄ່າທີ່ບອກວ່າພວກເຮົາຂາດຊ່ອງຫວ່າງຄວາມຮັບຜິດຊອບທາງດ້ານກົດຫມາຍໃນເວລາທີ່ AI ເຮັດໃຫ້ເກີດຄວາມເສຍຫາຍ. ຊ່ອງຫວ່າງທາງດ້ານກົດຫມາຍນີ້ແມ່ນສິ່ງທ້າທາຍທີ່ໃຫຍ່ທີ່ສຸດໃນເວລາທີ່ຈັດການກັບຜົນສະທ້ອນທີ່ເກີດຈາກ AI. ຄໍາຖາມແມ່ນ, ເມື່ອລະບົບ AI ເຮັດໃຫ້ເກີດຄວາມເສຍຫາຍເຊັ່ນ: ລົດທີ່ຂັບລົດດ້ວຍຕົນເອງເຮັດໃຫ້ເກີດອຸປະຕິເຫດ, ຊອບແວການວິນິດໄສ ທາງການແພດ ໃຫ້ຜົນທີ່ບໍ່ຖືກຕ້ອງ ... ແລ້ວໃຜຈະຮັບຜິດຊອບ? ມັນແມ່ນຜູ້ພັດທະນາ, ຜູ້ຜະລິດ, ຜູ້ໃຊ້, ຫຼືລະບົບ AI ເອງບໍ? ເມື່ອພວກເຮົາບໍ່ມີກົດລະບຽບສະເພາະກ່ຽວກັບຄວາມຮັບຜິດຊອບ, ນີ້ຈະເປັນຄວາມສ່ຽງອັນໃຫຍ່ຫຼວງສໍາລັບຜູ້ບໍລິໂພກແລະທຸລະກິດໃນເວລາທີ່ໃຊ້ AI.
ບໍ່ຢຸດຢູ່ທີ່ນັ້ນ, ດ້ວຍການພັດທະນາ "ຊັ້ນສູງ" ຂອງ AI, ຍັງມີຄວາມກັງວົນກ່ຽວກັບຄວາມສ່ຽງດ້ານຄວາມປອດໄພທີ່ບໍ່ແມ່ນແບບດັ້ງເດີມ. ເທກໂນໂລຍີ Deepfake ຖືກລ່ວງລະເມີດເພື່ອສ້າງຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງ, ອົງການຈັດຕັ້ງແລະບຸກຄົນ, ແລະສ້າງຮູບແບບການສໍ້ໂກງ. ຖ້າສະຖານະການນີ້ບໍ່ໄດ້ຮັບການຄວບຄຸມໂດຍກອບກົດຫມາຍທີ່ເຄັ່ງຄັດທີ່ມີມາດຕະການລົງໂທດທີ່ເຂັ້ມແຂງພຽງພໍ, ມັນຈະເຮັດໃຫ້ເກີດຄວາມບໍ່ສະຖຽນລະພາບທາງດ້ານສັງຄົມ.
ເພື່ອແນໃສ່ປະຕິບັດທັດສະນະຂອງພັກ ແລະ ລັດ ໃນການກຳນົດ AI ເປັນຫົວໜ້າ ແລະ ບຸກທະລຸໃນການຍົກສູງກຳລັງຄວາມສາມາດແຫ່ງຊາດໃນຍຸກດິຈິຕອລ, ຮ່າງກົດໝາຍວ່າດ້ວຍປັນຍາປະດິດ ແມ່ນລັດຖະບານໄດ້ຮັບການຜັນຂະຫຍາຍ ໂດຍມີທັດສະນະທີ່ສອດຄ່ອງກັນຄື: ກົດໝາຍຖືປະຊາຊົນເປັນໃຈກາງ, ດ້ວຍຫຼັກການສູງສຸດແມ່ນ AI ສ້າງຂຶ້ນເພື່ອຮັບໃຊ້ປະຊາຊົນ, ບໍ່ປ່ຽນແທນຄົນ, ເປັນເຈົ້າການຊີ້ນຳ AI ໃນສຳຄັນ. AI ຕ້ອງມີຄວາມໂປ່ງໃສ, ມີຄວາມຮັບຜິດຊອບ ແລະປອດໄພ. ກົດໝາຍວ່າດ້ວຍປັນຍາປະດິດຄຸ້ມຄອງລະບົບ AI ຕາມລະດັບຄວາມສ່ຽງ, ຊຸກຍູ້ການພັດທະນາ AI ພາຍໃນປະເທດ ແລະ ການປົກຄອງຂອງ AI, ແລະຖືເອົາ AI ເປັນກຳລັງຂັບເຄື່ອນໃຫ້ການຂະຫຍາຍຕົວຢ່າງວ່ອງໄວ ແລະຍືນຍົງ.
ເພື່ອຮັບປະກັນການປັບປຸງປະສິດທິພາບການຄຸ້ມຄອງ ແລະ ປົກປ້ອງສິດຂອງຜູ້ໃຊ້, ຮ່າງກົດໝາຍໄດ້ກຳນົດຄວາມຮັບຜິດຊອບໃນການຄຸ້ມຄອງ ແລະ ຮັບມືກັບເຫດການ AI. ຕາມນັ້ນແລ້ວ, ບັນດາອົງການຈັດຕັ້ງ ແລະ ບຸກຄົນເຂົ້າຮ່ວມການພັດທະນາ, ສະໜອງ, ນຳໃຊ້ ແລະ ນຳໃຊ້ລະບົບ AI ແມ່ນຄວາມຮັບຜິດຊອບໃນການຮັບປະກັນຄວາມປອດໄພ, ຄວາມປອດໄພ ແລະ ຄວາມໜ້າເຊື່ອຖືໃນໄລຍະດຳເນີນງານຂອງລະບົບ; ຕັ້ງໜ້າກວດພົບ, ສະກັດກັ້ນ ແລະ ແກ້ໄຂບັນດາເຫດການທີ່ອາດຈະກໍ່ຄວາມເສຍຫາຍໃຫ້ແກ່ຄົນ, ຊັບສິນ, ຂໍ້ມູນ ຫຼື ຄວາມເປັນລະບຽບຮຽບຮ້ອຍຂອງສັງຄົມ.
ເມື່ອເກີດເຫດການທາງດ້ານວິຊາການ, ຜົນໄດ້ຮັບທີ່ບໍ່ຖືກຕ້ອງຫຼືພຶດຕິກໍາທີ່ບໍ່ຄາດຄິດຂອງລະບົບ AI ເກີດຂື້ນ, ຜູ້ພັດທະນາແລະຜູ້ສະຫນອງຕ້ອງໃຊ້ມາດຕະການດ້ານວິຊາການທັນທີເພື່ອແກ້ໄຂ, ໂຈະຫຼືຖອນຄືນລະບົບທີ່ອາດຈະເປັນອັນຕະລາຍ; ແຈ້ງການແລະປະສານງານກັບອົງການຄຸ້ມຄອງລັດທີ່ມີຄວາມສາມາດໃນການສືບສວນແລະຈັດການເຫດການດັ່ງກ່າວ. ຜູ້ນຳໃຊ້ ແລະ ຜູ້ໃຊ້ຕ້ອງມີໜ້າທີ່ບັນທຶກ ແລະ ແຈ້ງໃຫ້ຜູ້ສະໜອງເຫດການທັນທີທັນໃດ ແລະ ປະສານສົມທົບກັບພາກສ່ວນທີ່ກ່ຽວຂ້ອງໃນການແກ້ໄຂ, ແລະ ບໍ່ຄວນແຊກແຊງ ຫຼື ດັດແປງລະບົບໂດຍບໍ່ໄດ້ຮັບອະນຸຍາດ. ນອກນີ້, ຮ່າງກົດໝາຍຍັງໄດ້ກຳນົດພັນທະຂອງຜູ້ສະໜອງ ແລະ ຜູ້ນຳໃຊ້ລະບົບ AI ທີ່ມີຄວາມສ່ຽງສູງ...
ຫວຽດນາມ ປະກາດໃຊ້ກົດໝາຍວ່າດ້ວຍປັນຍາທຽມໂດຍໄວ ຈະສ້າງບາດກ້າວບຸກທະລຸໃຫ້ແກ່ AI, ສ້າງສະພາບແວດລ້ອມດ້ານກົດໝາຍທີ່ສະດວກເພື່ອຊຸກຍູ້ການປະດິດສ້າງ, ເສີມຂະຫຍາຍກຳລັງແກ່ງແຍ້ງແຫ່ງຊາດ ແລະ ຢືນຢັນທີ່ຕັ້ງຂອງປະເທດມີຄວາມສາມາດເປັນເອກະລາດດ້ານເຕັກໂນໂລຊີ.
ທີ່ມາ: https://daibieunhandan.vn/hoan-thien-khung-kho-phap-ly-cho-ai-10390839.html
(0)