
ເພື່ອໃຫ້ AI ກາຍເປັນກຳລັງຂັບເຄື່ອນໃຫ້ແກ່ການແຂ່ງຂັນລະດັບຊາດຢ່າງແທ້ຈິງ, ໂຄງຮ່າງກົດໝາຍຕ້ອງໄດ້ຮັບການອອກແບບເພື່ອທັງຄວບຄຸມຄວາມສ່ຽງ ແລະ ສົ່ງເສີມນະວັດຕະກໍາ.
ຕ້ອງການໂຄງຮ່າງການປົກຄອງສຳລັບ AI
ນັບຕັ້ງແຕ່ການນໍາເອົາປັນຍາປະດິດ (AI) ເຂົ້າມາໃນຊີວິດ, ຂອບເຂດລະຫວ່າງຄວາມຄິດສ້າງສັນຂອງມະນຸດແລະ AI ໄດ້ກາຍເປັນຄວາມມົວຫລາຍຂຶ້ນ, ເຮັດໃຫ້ບັນຫາລິຂະສິດແລະຊັບສິນທາງປັນຍາເປັນສິ່ງທ້າທາຍທາງດ້ານກົດຫມາຍໃຫມ່. ຄຽງຄູ່ກັນນັ້ນ, ການສ້າງກົນໄກຄຸ້ມຄອງຄວາມສ່ຽງໃນການສ້າງ ແລະ ຂຸດຄົ້ນຜະລິດຕະພັນທີ່ສ້າງຂຶ້ນໂດຍ AI ກໍ່ໄດ້ກາຍເປັນເລື່ອງຮີບດ່ວນ, ເພື່ອຮັບປະກັນວ່າເຕັກໂນໂລຢີຮັບໃຊ້ຈຸດປະສົງທີ່ຖືກຕ້ອງ ແລະຜົນປະໂຫຍດຂອງມະນຸດ.
ຂໍ້ມູນການຝຶກອົບຮົມ AI ແລະບັນຫາລິຂະສິດ
ຫນຶ່ງໃນບັນຫາທີ່ໂດດເດັ່ນທີ່ຕ້ອງໄດ້ຮັບການຄຸ້ມຄອງໂດຍກົດຫມາຍແມ່ນການນໍາໃຊ້ຂໍ້ມູນເພື່ອຝຶກອົບຮົມ AI. ນີ້ແມ່ນພື້ນຖານສໍາລັບລະບົບປັນຍາປະດິດເພື່ອຮຽນຮູ້, ປຸງແຕ່ງຂໍ້ມູນແລະສ້າງຜະລິດຕະພັນໃຫມ່, ແຕ່ມັນກໍ່ແມ່ນແຫຼ່ງຂອງການຂັດແຍ້ງຫຼາຍເມື່ອຂໍ້ມູນການຝຶກອົບຮົມສາມາດປະກອບມີວຽກງານວັນນະຄະດີ, ດົນຕີ , ຮູບພາບ, ຫນັງສືພິມຫຼືຜະລິດຕະພັນສ້າງສັນທີ່ເປັນເຈົ້າຂອງໂດຍບຸກຄົນແລະອົງການຈັດຕັ້ງ. ໂດຍບໍ່ມີກົດລະບຽບທີ່ຊັດເຈນ, ກິດຈະກໍານີ້ສາມາດນໍາໄປສູ່ການລະເມີດລິຂະສິດ, ລະເມີດສິດທິຂອງຜູ້ສ້າງໄດ້ງ່າຍແລະເຮັດໃຫ້ເກີດຜົນສະທ້ອນທາງດ້ານກົດຫມາຍແລະຈັນຍາບັນ.
ຈາກການປະຕິບັດການປົກປ້ອງລິຂະສິດ, ທະນາຍຄວາມ ຫງວຽນທິທູຮ່ຽນ, ບໍລິສັດຫຸ້ນສ່ວນການຄ້າ BIHACO ແລະບໍລິການສື່ມວນຊົນ, ໃຫ້ຮູ້ວ່າ: ປະຈຸບັນ, ລະບົບ AI ຫຼາຍແຫ່ງໄດ້ຮັບການຝຶກອົບຮົມໂດຍການສະແກນ ແລະ ສຳເນົາຂໍ້ມູນຜ່ານອິນເຕີເນັດໂດຍອັດຕະໂນມັດ, ເກັບກຳຜົນງານນັບລ້ານໂດຍບໍ່ໄດ້ຮັບອະນຸຍາດ ຫຼື ຈ່າຍເງິນໃຫ້ຜູ້ຂຽນ. ການຟ້ອງຮ້ອງລະຫວ່າງປະເທດຫຼາຍໆຄັ້ງໄດ້ເກີດຂື້ນ, ເມື່ອທຸລະກິດ AI ຖືກກ່າວຫາວ່າໃຊ້ຂໍ້ມູນຜູ້ຂຽນຢ່າງຜິດກົດຫມາຍເພື່ອຝຶກອົບຮົມແບບຈໍາລອງ AI. ໃນຫວຽດນາມ, ເຖິງວ່າຍັງບໍ່ທັນມີການດຳເນີນຄະດີກໍ່ຕາມ, ແຕ່ການລະເມີດພວມເກີດຂຶ້ນຢ່າງກວ້າງຂວາງ.
ການເລີ່ມຕົ້ນຈໍານວນຫຼາຍໄດ້ເກັບກໍາເນື້ອໃນຈາກບົດຄວາມ, blogs, e-books, ແລະສ້າງ chatbots ຂອງຫວຽດນາມໂດຍບໍ່ມີການອະນຸຍາດ, ຜົນກະທົບຕໍ່ສິດທິຂອງຜູ້ຂຽນ.
ການເລີ່ມຕົ້ນຫຼາຍແຫ່ງໄດ້ເກັບກໍາເນື້ອໃນຂອງບົດຄວາມ, blogs, e-books, ແລະສ້າງ chatbots ຂອງຫວຽດນາມໂດຍບໍ່ມີການອະນຸຍາດ, ຜົນກະທົບຕໍ່ສິດທິຂອງຜູ້ຂຽນ. ຕົວຢ່າງທົ່ວໄປແມ່ນ chatbots ທີ່ສາມາດສະຫຼຸບແລະຜະລິດຄືນເນື້ອໃນຂອງວຽກງານ ... ດັ່ງນັ້ນຜູ້ໃຊ້ບໍ່ຈໍາເປັນຕ້ອງຊື້ຫນັງສືແລະຫນັງສືພິມ, ເຮັດໃຫ້ຜູ້ຂຽນສູນເສຍລາຍໄດ້ແລະການເຮັດວຽກຖືກຂູດຮີດເກີນການຄວບຄຸມ. ເພງສາມາດຖືກນໍາໃຊ້ເພື່ອຝຶກອົບຮົມ AI ໃນການແຕ່ງເພງ, ຈາກທີ່ AI ສ້າງດົນຕີພື້ນຫລັງຟຣີທີ່ແຂ່ງຂັນກັບເພງທີ່ມີລິຂະສິດ. ຕາມທະນາຍຄວາມ ຫງວຽນທິທູຮັ່ງ ແລ້ວ, ກົດໝາຍວ່າດ້ວຍຊັບສິນທາງປັນຍາ ໃນປະຈຸບັນ ແມ່ນບໍ່ເໝາະສົມກັບສິ່ງທ້າທາຍຂອງ AI ໃນບັນຫາລິຂະສິດ AI, ຄວາມສ່ຽງຕໍ່ການຂັດແຍ້ງແມ່ນສູງຫຼາຍ, ສະນັ້ນ ຕ້ອງມີລະບຽບການຕ່າງໆ ເພື່ອປົກປ້ອງລິຂະສິດ, ພ້ອມທັງຊຸກຍູ້ເຕັກໂນໂລຊີໃໝ່ນີ້.
ສາດສະດາຈານ ຫວູຕວ໋ຽດລິງ, ມະຫາວິທະຍາໄລການທະນາຄານນະຄອນ ໂຮ່ຈີມິນ ໃຫ້ຮູ້ວ່າ: ການລະເບີດຂອງບັນດາວຽກງານສັບຊ້ອນທີ່ສ້າງຂຶ້ນໂດຍ AI ໄດ້ສ້າງສິ່ງທ້າທາຍອັນໃຫຍ່ຫຼວງຕໍ່ຂອບກົດໝາຍກ່ຽວກັບລິຂະສິດ. ສະນັ້ນ, ຕ້ອງພິຈາລະນາຢ່າງເລິກເຊິ່ງ ແລະ ຮອບດ້ານກ່ຽວກັບບັນຫານີ້ ເພື່ອເຮັດໃຫ້ຊ່ອງຫວ່າງດ້ານກົດໝາຍ, ຮັບປະກັນຄວາມກົມກຽວລະຫວ່າງເຕັກໂນໂລຢີ ແລະ ກົດໝາຍ.
ໃນລະຫວ່າງການຮ່າງກົດໝາຍວ່າດ້ວຍ ການປັບປຸງ ແລະ ເສີມສ້າງກົດໝາຍວ່າດ້ວຍຊັບສິນທາງປັນຍາ, ມີຄວາມຄິດເຫັນທີ່ສະເໜີໃຫ້ມີການຂຸດຄົ້ນຂໍ້ມູນທີ່ຖືກປົກປ້ອງດ້ວຍລິຂະສິດ ແລະ ສິດທິທີ່ກ່ຽວຂ້ອງໃນການຝຶກອົບຮົມ AI ໂດຍບໍ່ມີການອະນຸຍາດ, ກໍລະນີນີ້ຕົກຢູ່ໃນຂອບເຂດຈໍາກັດ ແລະ ຍົກເວັ້ນສິດ. ຍັງມີຄວາມຄິດເຫັນວ່າການອະນຸຍາດຄວນໄດ້ຮັບການຊອກຫາແລະການຈ່າຍເງິນຄວນຈະເຮັດໃນເວລາທີ່ຂໍ້ມູນລິຂະສິດຖືກນໍາໃຊ້ສໍາລັບການຝຶກອົບຮົມ AI. ຢ່າງໃດກໍ່ຕາມ, ຖ້າປະຕິບັດ, ບັນຫາອາດຈະເປັນ: ຫນ່ວຍງານໃດຄວນຈ່າຍຄ່າທໍານຽມທີ່ເຫມາະສົມ, ຜູ້ພັດທະນາແບບຈໍາລອງ AI, ຜູ້ໃຫ້ບໍລິການແອັບພລິເຄຊັນຫຼືຜູ້ໃຊ້ສຸດທ້າຍ? ນີ້ແມ່ນບັນຫາຍາກທີ່ຮຽກຮ້ອງໃຫ້ມີການປະສານງານ ແລະ ຄວາມກະຈ່າງແຈ້ງໃນກົນໄກຮັບມືຂອງເຈົ້າໜ້າທີ່ມີຄວາມສາມາດ.
AI ຂະຫຍາຍຄວາມຄິດສ້າງສັນຂອງມະນຸດ
ພາກສ່ວນທີ່ສໍາຄັນທີ່ສຸດຂອງວົງຈອນຊີວິດ AI ແມ່ນວິທີການດໍາເນີນການເພື່ອຮັບໃຊ້ມະນຸດ. ດັ່ງນັ້ນ, ຕ້ອງມີແລວທາງທາງດ້ານກົດຫມາຍເພື່ອນໍາພາການປົກຄອງແລະການພັດທະນາທີ່ມີຄວາມຮັບຜິດຊອບຂອງ AI.

ອີງຕາມຜູ້ຊ່ຽວຊານ, ຄວາມສ່ຽງຂອງລະບົບ AI ບໍ່ພຽງແຕ່ຍ້ອນຄວາມຜິດພາດທາງດ້ານວິຊາການເທົ່ານັ້ນ, ແຕ່ຍັງເປັນຍ້ອນການນໍາໃຊ້ແລະການຄຸ້ມຄອງທີ່ບໍ່ສາມາດຄວບຄຸມໄດ້. ຮູບແບບ AI ສາມາດສ້າງຄວາມຜິດພາດຂອງຂໍ້ມູນ, ຄວາມລໍາອຽງຂອງລະບົບສູດການຄິດໄລ່, ແລະການຕັດສິນໃຈອັດຕະໂນມັດທີ່ມີຜົນກະທົບຕໍ່ສຸຂະພາບຂອງມະນຸດ, ການຈ້າງງານ, ຫຼືຄວາມເປັນສ່ວນຕົວ. ເມື່ອປະສົມປະສານເຂົ້າໃນສາຂາຕ່າງໆເຊັ່ນ: ການເງິນ, ການດູແລສຸຂະພາບ, ການສຶກສາ , ຫຼືສື່ມວນຊົນ, ຄວາມສ່ຽງເຫຼົ່ານີ້ສາມາດເພີ່ມຂຶ້ນຫຼາຍເທົ່າຖ້າບໍ່ໄດ້ຕິດຕາມໄວ. ດັ່ງນັ້ນ, ມັນຈໍາເປັນຕ້ອງສ້າງກົນໄກການປະເມີນ, ຈັດປະເພດ, ແລະຄວບຄຸມຄວາມສ່ຽງໃນທົ່ວວົງຈອນຊີວິດ AI ທັງຫມົດເພື່ອຮັບປະກັນຄວາມປອດໄພທາງສັງຄົມແລະຄວາມໄວ້ວາງໃຈຂອງຜູ້ໃຊ້.
ໃນຕົວຈິງ, ຄວາມໄວຂອງການນຳໃຊ້ AI ຢູ່ຫວຽດນາມ ພວມເກີດຂຶ້ນຢ່າງວ່ອງໄວ, ສະແດງໃຫ້ເຫັນຄວາມຕ້ອງການອັນຮີບດ່ວນຂອງທິດທາງ ແລະ ຂອບການຄຸ້ມຄອງທີ່ຈະແຈ້ງ. ໃນປີ 2024, ມີວິສາຫະກິດຫວຽດນາມປະມານ 47.000 ແຫ່ງຈະເລີ່ມນຳໃຊ້ AI, ເທົ່າກັບ 5 ວິສາຫະກິດຕໍ່ຊົ່ວໂມງ, ເຮັດໃຫ້ຈຳນວນວິສາຫະກິດນຳໃຊ້ AI ຂຶ້ນເຖິງເກືອບ 170.000 ແຫ່ງ, ກວມປະມານ 18% ຂອງຈຳນວນວິສາຫະກິດທັງໝົດໃນທົ່ວປະເທດ. ພ້ອມກັນນັ້ນ, ຕະຫຼາດ chatbot ຂອງຫວຽດນາມ ຍັງສະແດງໃຫ້ເຫັນທ່າແຮງ ແລະ ການເຕີບໂຕຢ່າງແຂງແຮງ. ໃນປີ 2024, ມູນຄ່າຕະຫຼາດຂອງ chatbot ບັນລຸປະມານ 31.2 ລ້ານ USD, ແລະຄາດວ່າຈະເພີ່ມຂຶ້ນເປັນ 207.1 ລ້ານ USD ໃນປີ 2033 ດ້ວຍອັດຕາການເຕີບໂຕປະສົມ (CAGR) ຂອງ 18.5%. ເມື່ອວິສາຫະກິດເຂົ້າສູ່ AI ທໍາອິດ, ພວກເຂົາມັກຈະເລີ່ມຕົ້ນດ້ວຍ chatbots ຫຼືເຄື່ອງມືການໂຕ້ຕອບທີ່ສະຫຼາດ.
ໃນຕົວຈິງ, ຄວາມໄວຂອງການນຳໃຊ້ AI ຢູ່ ຫວຽດນາມ ພວມດຳເນີນໄປຢ່າງວ່ອງໄວ, ສະແດງໃຫ້ເຫັນຄວາມຕ້ອງການອັນຮີບດ່ວນເພື່ອແນໃສ່ຊີ້ນຳ ແລະ ຂອບເຂດການປົກຄອງຢ່າງຈະແຈ້ງ.
ດັ່ງນັ້ນ, ຕາມທ່ານນາງ ເຈີ່ນວູຮ່າມິນ (ບໍລິສັດຊອບແວ FPT), ລັດຄວນຍົກອອກບັນດາທິດທາງສະເພາະກ່ຽວກັບການນຳໃຊ້ chatbots ແລະ ເຄື່ອງມື AI ພື້ນຖານເພື່ອປະຕິບັດບັນດາຂໍ້ກຳນົດກ່ຽວກັບຄວາມໂປ່ງໃສ, ປົກປັກຮັກສາຂໍ້ມູນ ແລະ ຄວາມຮັບຜິດຊອບ. ສຳລັບບັນດາໂຄງການທີ່ມີຄວາມສ່ຽງສູງ ຫຼື ທີ່ສຳຄັນ, ຄວນມີນະໂຍບາຍ ແລະ ມາດຕະຖານລະອຽດ ເພື່ອໃຫ້ບັນດາວິສາຫະກິດສາມາດຈັດຕັ້ງປະຕິບັດໄດ້ຢ່າງໝັ້ນໃຈ ໂດຍບໍ່ຕ້ອງກັງວົນກ່ຽວກັບອຸປະສັກທາງດ້ານກົດໝາຍ ຫຼື ເຕັກນິກ.
ຮ່າງກົດໝາຍວ່າດ້ວຍປັນຍາປະດິດໄດ້ກຳນົດພັນທະຫຼາຍດ້ານໃຫ້ແກ່ພາກສ່ວນທີ່ສະໜອງ ແລະນຳໃຊ້ລະບົບ AI ທີ່ມີຄວາມສ່ຽງສູງ ເຊັ່ນ: ການຮັກສາລະບົບການຄຸ້ມຄອງຄວາມສ່ຽງຕະຫຼອດວົງຈອນຊີວິດຂອງລະບົບ, ດຳເນີນການຕິດຕາມຢ່າງຕໍ່ເນື່ອງ ແລະ ປະເມີນລະດັບຄວາມສ່ຽງຂອງລະບົບຄືນໃໝ່ ແລະ ມີກົນໄກເຕັກນິກເພື່ອບັນທຶກບັນທຶກການເຄື່ອນໄຫວໂດຍອັດຕະໂນມັດ. ເມື່ອມີເຫດການເກີດຂຶ້ນ, ເຈົ້າໜ້າທີ່ມີອຳນາດບັງຄັບໃຫ້ຜູ້ສະໜອງ ຫຼື ຜູ້ນຳໃຊ້ສະໜອງບັນທຶກການເຄື່ອນໄຫວເພື່ອກຳນົດສາເຫດ, ກຳນົດຄວາມຮັບຜິດຊອບ ແລະ ເປັນພື້ນຖານໃນການຊົດເຊີຍຄວາມເສຍຫາຍ.
ຕາມທະນາຍຄວາມ ຫງວຽນຕວນລິງ, ບໍລິສັດກົດໝາຍສາກົນ BMVN ແລ້ວ, ຕ້ອງຈັດແບ່ງຄວາມສ່ຽງຕາມຈຸດປະສົງຂອງການນຳໃຊ້, ບໍ່ໃຫ້ຕິດພັນກັບເຕັກໂນໂລຊີທີ່ຕິດພັນ. ການປະເມີນຄວາມສ່ຽງຄວນອີງໃສ່ມາດຖານທີ່ຊັດເຈນ, ມີຈຸດປະສົງແລະສອດຄ່ອງກັບມາດຕະຖານສາກົນ; ຖ້າມີການໃຫ້ຄໍານິຍາມທີ່ກວ້າງເກີນໄປກ່ຽວກັບການຈັດປະເພດຄວາມສ່ຽງ, ມັນອາດຈະຂັດຂວາງການພັດທະນາຂອງເຕັກໂນໂລຢີ AI ທີ່ບໍ່ມີແນວໂນ້ມທີ່ຈະເຮັດໃຫ້ເກີດອັນຕະລາຍ.
(ຈະສືບຕໍ່)
ທີ່ມາ: https://nhandan.vn/bao-ve-ban-quyen-trong-ky-nguyen-ai-bai-1-post921923.html






(0)