ການຕິດສະຫຼາກຜະລິດຕະພັນທີ່ສ້າງໂດຍ AI

ເນັ້ນໜັກເຖິງກົນໄກຄວບຄຸມຄວາມສ່ຽງຂອງ AI ໃນຊີວິດປະຈຸບັນ, ທ່ານຮອງ ຫງວຽນທ້ຽນເຍີນ (HCMC) ສະແດງຄວາມເຫັນວ່າ ຮ່າງກົດໝາຍກຳນົດໃຫ້ຜູ້ສະໜອງຕ້ອງຮັບປະກັນເຄື່ອງໝາຍເຄື່ອງອ່ານສຳລັບເນື້ອໃນ AI ແມ່ນມີຄວາມຈຳເປັນທີ່ສຸດ; ແນວໃດກໍ່ຕາມ, ລາວໄດ້ແນະນໍາໃຫ້ພິຈາລະນາເພີ່ມຂໍ້ກໍານົດບັງຄັບເພື່ອສະແດງຂໍ້ມູນການລະບຸຕົວຕົນໃນການໂຕ້ຕອບແບບໂຕ້ຕອບໃນເວລາທີ່ເນື້ອຫາມີຄວາມສ່ຽງທີ່ຈະເຮັດໃຫ້ເກີດຄວາມສັບສົນ, ເພື່ອປົກປ້ອງຜູ້ໃຊ້ທົ່ວໄປ, ໂດຍສະເພາະແມ່ນເດັກນ້ອຍແລະຜູ້ສູງອາຍຸ, ຈາກຄວາມສ່ຽງຂອງຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງແລະການປອມແປງເລິກ. ກົດລະບຽບນີ້ເສີມຂະຫຍາຍຄວາມຮັບຜິດຊອບທາງສັງຄົມຂອງຜູ້ໃຫ້ບໍລິການດ້ານເຕັກໂນໂລຢີແລະສ້າງຄວາມໄວ້ວາງໃຈທາງດ້ານດິຈິຕອນສໍາລັບປະຊາຊົນ.
ຄຽງຄູ່ກັນນັ້ນ, ທ່ານຮອງ ຫງວຽນທ້ຽນເຍີນ ໃຫ້ຮູ້ວ່າ, ຜ່ານການຄົ້ນຄວ້າ, ເຫັນວ່າ ຮູບແບບ AI ອະເນກປະສົງ ໃນປະຈຸບັນ ບໍ່ພຽງແຕ່ສ້າງຂໍ້ຄວາມ ຫຼື ຮູບພາບເທົ່ານັ້ນ, ຫາກຍັງສາມາດສ້າງລະຫັດແຫຼ່ງຂ່າວ, ເຄື່ອງມືບຸກໂຈມຕີ, ຄຳສັ່ງປະຕິບັດ, ຂະບວນການບຸກໂຈມຕີທາງອິນເຕີເນັດ, ວິທີການສໍ້ໂກງດ້ານການເງິນ ແລະ ອື່ນໆ, ຈາກນັ້ນ, ທ່ານຮອງນາຍົກລັດຖະມົນຕີ ກໍ່ໄດ້ສະເໜີເພີ່ມພັນທະໃນການຄວບຄຸມ “ຄວາມສາມາດສ້າງຕົນເອງ” ຂອງຕົວແບບໃຫ້ເກີດສົງຄາມ, ມີການຈຳກັດ, ການຜະລິດ, ລະຫັດແຫຼ່ງຂ່າວ. ເພື່ອຮັບປະກັນຄວາມປອດໄພຂອງເຄືອຂ່າຍ ແລະຄວາມເປັນລະບຽບຮຽບຮ້ອຍ ແລະຄວາມປອດໄພທາງສັງຄົມ.

ພ້ອມກັນເບິ່ງບັນດາຄວາມສ່ຽງທີ່ສ້າງໂດຍ AI, ທ່ານຮອງລັດຖະມົນຕີ Pham Van Hoa ( Dong Thap ) ໃຫ້ຮູ້ວ່າ, ເຖິງວ່າເຕັກໂນໂລຢີ AI ຈະເປັນເຄື່ອງມືໜູນຊ່ວຍມະນຸດ, ແຕ່ມັນຈະນຳມາໃຫ້ມີຄວາມສ່ຽງສູງຫຼາຍຢ່າງ; ທ່ານຮອງລັດຖະມົນຕີໄດ້ຮຽກຮ້ອງໃຫ້ຄະນະກຳມະການສ້າງຮ່າງກົດໝາຍມີຈຸດປະສົງ ແລະ ໄດ້ຮັບການຕີລາຄາຢ່າງຖືກຕ້ອງ.
ທ່ານຮອງລັດຖະມົນຕີ Pham Van Hoa ໃຫ້ຮູ້ວ່າ: “ຄວາມສ່ຽງສາມາດກະທົບເຖິງຊີວິດມະນຸດ, ຊັບສິນ, ສິດ, ແລະ ຜົນປະໂຫຍດອັນຊອບທຳຂອງບັນດາອົງການ ແລະ ບຸກຄົນ,” ໂດຍທ່ານຮອງລັດຖະມົນຕີ Pham Van Hoa ໃຫ້ຮູ້ວ່າ, ຄວນມີບັນດາປ້າຍກຳກັບບັນດາຜະລິດຕະພັນທີ່ສ້າງດ້ວຍ AI. ອີງຕາມພຣະອົງ, ການຕິດສະຫຼາກ AI ແມ່ນເພື່ອໃຫ້ປະຊາຊົນຮູ້ວ່າຜະລິດຕະພັນໃດທີ່ຖືກສ້າງຂື້ນໂດຍ AI ແລະອັນໃດບໍ່ແມ່ນ.

ໃນຂະນະນັ້ນ, ທ່ານຮອງນາງ Trinh Thi Tu Anh ( Lam Dong ) ໃຫ້ຮູ້ວ່າ: ມາດຕາ 11 ຂອງຮ່າງກົດໝາຍບໍ່ໄດ້ສະແດງໃຫ້ເຫັນຢ່າງຄົບຖ້ວນເຖິງແນວຄິດປະເມີນຄວາມສ່ຽງໂດຍອີງໃສ່ບັນດາຜົນກະທົບດ້ານເຕັກໂນໂລຊີ. ອີງຕາມນາງ, ໃນສະພາບການປະຈຸບັນ, AI ສາມາດສ້າງວິທີການທີ່ເປັນອັນຕະລາຍທີ່ບໍ່ເຄີຍຖືກກໍານົດ. ສະນັ້ນ, ທ່ານຮອງປະທານສະພາແຫ່ງຊາດ Trinh Thi Tu Anh ໄດ້ສະເໜີເພີ່ມຂໍ້ກຳນົດວ່າ: “ລັດຖະບານຕ້ອງກຳນົດລະອຽດ ແລະ ປັບປຸງເປັນແຕ່ລະໄລຍະ ແລະ ເພີ່ມເຕີມບັນດາລະບົບປັນຍາປະດິດທີ່ບໍ່ສາມາດຮັບເອົາໄດ້ ບົນພື້ນຖານການຕີລາຄາຄວາມສ່ຽງ, ທ່າອ່ຽງເຕັກໂນໂລຊີ ແລະ ຄວາມຮຽກຮ້ອງຕ້ອງການໃນການຄຸ້ມຄອງປະຕິບັດຕົວຈິງແລ້ວ, ກົນໄກນີ້ຮັບປະກັນກົດໝາຍບໍ່ທັນຍຸກທັນສະໄໝ ແລະ ສາມາດຕອບສະໜອງບັນດາຄວາມສ່ຽງໃໝ່ຢ່າງວ່ອງໄວ.
ຫຼີກເວັ້ນການລ່ວງລະເມີດ AI
ທ່ານຮອງລັດຖະມົນຕີ Tran Khanh Thu (Hung Yen) ໄດ້ຍົກອອກບັນດາບັນຫາ AI ໃນການໜູນຊ່ວຍວຽກງານກວດກາ ແລະ ປິ່ນປົວພະຍາດ, AI ບໍ່ພຽງແຕ່ຊ່ວຍປັບປຸງຂະບວນການໃນຂະແໜງການແພດ, ຫຼຸດຜ່ອນວຽກງານໃຫ້ແພດໝໍ ແລະ ຊ່ຽວຊານການແພດເທົ່ານັ້ນ, ຫາກຍັງມີບົດບາດສຳຄັນໃນການປິ່ນປົວເປັນສ່ວນຕົວ, ຜ່ານນັ້ນໄດ້ຍົກສູງໝາກຜົນການຮັກສາສຸຂະພາບ, ຍົກສູງປະສິດທິຜົນການນຳໃຊ້ແຫຼ່ງຊັບພະຍາກອນ. ຢ່າງໃດກໍຕາມ, ການໃຊ້ AI ເພື່ອກວດຫາອາການສຸຂະພາບແມ່ນບາງຄັ້ງກົງກັນຂ້າມ.

ຄະນະຜູ້ແທນແມ່ຍິງໄດ້ຍົກຕົວຢ່າງຊີວິດຈິງຂອງຄົນເຈັບອາຍຸ 55 ປີຢູ່ນະຄອນໂຮ່ຈີມິນທີ່ມີອາການງ້ວງຊຶມໃນເວລາຖືກນໍາໄປໂຮງຫມໍ. ກ່ອນໜ້ານັ້ນ, ຄອບຄົວຂອງຄົນເຈັບໄດ້ນຳໃຊ້ AI ໃນການວິນິດໄສ, ແລ້ວກໍໄປຊື້ຢາໃຫ້ຄົນເຈັບໃຊ້. ຫຼັງຈາກໃຊ້ຢາ, ອາການຂອງຄົນເຈັບກໍ່ຮ້າຍແຮງຂຶ້ນ, ຫຼັງຈາກນັ້ນເມື່ອລາວຖືກນໍາໄປໂຮງຫມໍ, ລາວໄດ້ຖືກກວດພົບວ່າມີການບາດເຈັບຂອງສະຫມອງ, ເສັ້ນເລືອດຕັນໃນແລະຜົນສະທ້ອນທີ່ບໍ່ສາມາດຫຼີກລ່ຽງໄດ້.
"ຢ່າງແທ້ຈິງ, ປະຊາຊົນບໍ່ຄວນໃຊ້ຜົນການຄົ້ນຫາເພື່ອວິນິດໄສຫຼືສັ່ງຢາ. ແນວໃດກໍ່ຕາມ, ຜູ້ທີ່ຂາຍຢາຕາມໃບສັ່ງແພດຂອງ AI ແມ່ນລະເມີດກົດຫມາຍບໍ?", ທ່ານ Tran Khanh Thu ສົງໄສແລະຫວັງວ່າໃນຮ່າງກົດຫມາຍວ່າດ້ວຍປັນຍາທຽມສະບັບນີ້, ຈະມີກອບກົດຫມາຍສະເພາະໃນການຄຸ້ມຄອງຜະລິດຕະພັນປັນຍາປະດິດໃນຂະແຫນງການແພດ, ໂດຍສະເພາະກ່ຽວກັບຄວາມຮັບຜິດຊອບທີ່ກ່ຽວຂ້ອງ.
ກ່ຽວກັບການຜັນຂະຫຍາຍຈາກການກວດກາຫຼັງມາເປັນການກວດກາກ່ອນຮ່າງກົດໝາຍ, ທ່ານຮອງປະທານປະເທດ ເຈີ່ນດ້າຍກວາງ ສະເໜີວ່າ ຄວນມີມາດຕະການດ້ານປະລິມານທີ່ຈະແຈ້ງ, ເຊັ່ນ: ເມື່ອຕົວແບບປ່ຽນວິທີ, ເພີ່ມຂະໜາດຜູ້ໃຊ້, ຫຼືຂໍ້ມູນການຝຶກອົບຮົມເກີນກຳນົດ.

ເບິ່ງຕື່ມອີກກ່ຽວກັບ “ການກະທຳຜິດຕໍ່ AI”, ທ່ານຮອງລັດຖະມົນຕີ Pham Trong Nghia (Lang Son) ໃຫ້ຮູ້ວ່າ: ຖ້າຫາກເຮົາອີງໃສ່ AI ໃນຊີວິດຂອງເຮົາຫຼາຍເກີນໄປ, ມັນຈະຫຼຸດຄວາມສາມາດດ້ານການຄິດ ແລະ ສ້າງສັນຂອງເຮົາ. ການລ່ວງລະເມີດຂອງ AI ມີຫຼາຍຄວາມບໍ່ສະຖຽນລະພາບທີ່ອາດຈະເກີດຂຶ້ນເຊັ່ນ: ການລະເມີດອະທິປະໄຕແຫ່ງຊາດ, ຫຼຸດຜ່ອນປະສິດທິພາບຂອງການບໍລິຫານສາທາລະນະແລະສົ່ງຜົນກະທົບທາງລົບຕໍ່ບຸກຄົນແລະແຕ່ລະຄອບຄົວ, ໂດຍສະເພາະຄົນຮຸ່ນຫນຸ່ມ.
"ສໍາລັບພາກລັດ, ການລ່ວງລະເມີດ AI ຫຼຸດຜ່ອນຄວາມເປັນໄປໄດ້, ມະນຸດສະທໍາແລະປະສິດທິຜົນຂອງນະໂຍບາຍແລະກົດຫມາຍ. ການສະຫນອງຂໍ້ມູນລະອຽດອ່ອນແລະຂໍ້ມູນກັບ AI, ຖ້າບໍ່ມີການຄວບຄຸມຢ່າງເຂັ້ມງວດ, ສາມາດນໍາໄປສູ່ການຮົ່ວໄຫລຂອງຂໍ້ມູນ, ເປັນອັນຕະລາຍຕໍ່ຄວາມປອດໄພຂອງຊາດແລະຄວາມເປັນລະບຽບຮຽບຮ້ອຍແລະຄວາມປອດໄພຂອງສັງຄົມດ້ວຍຜົນສະທ້ອນທີ່ບໍ່ສາມາດຄາດເດົາໄດ້, ", ທ່ານ Pham Trong Nghia, ຜູ້ທີ່ສະເຫນີໃຫ້ເພີ່ມຂໍ້ກໍານົດໃນຮ່າງກົດຫມາຍຫ້າມການລ່ວງລະເມີດ.
ທີ່ມາ: https://www.sggp.org.vn/can-co-che-danh-gia-rui-ro-lien-quan-toi-ai-post825783.html






(0)