ຕ້ອງມີກົດລະບຽບດ້ານຈັນຍາບັນໃນກິດຈະກໍາ AI.
ຕອນເຊົ້າວັນທີ 21/11, ໂດຍຕາງໜ້າໃຫ້ຄະນະກຳມະ ການວິທະຍາສາດ , ເຕັກໂນໂລຊີ ແລະ ສິ່ງແວດລ້ອມ (KH, CN&MT), ໄດ້ນຳສະເໜີບົດລາຍງານກວດກາໂຄງການກົດໝາຍວ່າດ້ວຍປັນຍາທຽມ (AI), ທ່ານປະທານຄະນະກຳມະການກວດກາ ຫງວຽນແທ່ງຫາຍ ຊີ້ແຈ້ງວ່າ: ມາດຕາ 27 ຂອງຮ່າງກົດໝາຍໄດ້ກຳນົດຫຼັກການພື້ນຖານ, ສອດຄ່ອງກັບການປະຕິບັດສາກົນຄື: ການເຄົາລົບປະຊາຊົນ, ຄວາມບໍ່ໂປ່ງໃສ, ຄວາມເປັນທຳ ແລະ ຄວາມເປັນສ່ວນຕົວ.
ແນວໃດກໍ່ຕາມ, ຄະນະກຳມະການວິທະຍາສາດ, ເຕັກໂນໂລຊີ ແລະ ສິ່ງແວດລ້ອມ ພົບວ່າ ໃນຫຼາຍປະເທດ, ຂະບວນການສ້າງນະໂຍບາຍກ່ຽວກັບປັນຍາປະດິດມັກຈະເລີ່ມຕົ້ນດ້ວຍການປະກາດໃຊ້ຂອບຈັນຍາບັນ ແລະ ຫຼັກການແນະນຳ, ຕິດຕາມດ້ວຍການປະເມີນການປະຕິບັດເພື່ອສະຫຼຸບ ແລະ ກ້າວໄປສູ່ການສ້າງນິຕິກຳ.
ບົນພື້ນຖານນັ້ນ, ຄະນະກຳມະການວິທະຍາສາດ, ເຕັກໂນໂລຊີ ແລະ ສິ່ງແວດລ້ອມ ໄດ້ສະເໜີໃຫ້ອົງການຈັດຕັ້ງ ຄົ້ນຄວ້າ ແລະ ເພີ່ມເຕີມບັນດາຫຼັກການທົ່ວໄປກ່ຽວກັບຈັນຍາບັນ ເພື່ອໃຫ້ ລັດຖະບານ ກຳນົດລະອຽດ . ໃນນັ້ນ, ມີການອ້າງອີງເຖິງຄຸນຄ່າຂອງອົງການ UNESCO ແລະ OECD, ລວມທັງຫຼັກການເຄົາລົບປະຊາຊົນ, ຍຸຕິທຳ, ຄວາມປອດໄພ, ຄວາມໂປ່ງໃສ, ຄວາມຮັບຜິດຊອບ ແລະການພັດທະນາແບບຍືນຍົງ; ຊຸກຍູ້ໃຫ້ບັນດາວິສາຫະກິດພັດທະນາປະມວນຈັນຍາບັນ AI ພາຍໃນຂອງຕົນໃຫ້ສອດຄ່ອງກັບຂອບເຂດດັ່ງກ່າວ, ແລະເຮັດໃຫ້ບັນດາອົງການຄຸ້ມຄອງລັດໄດ້ຮັບການກຳນົດເປັນສາທາລະນະ.

ນັກທ່ອງທ່ຽວເພີດເພີນກັບຮູບແບບຫຸ່ນຍົນມະນຸດທີ່ສະແດງຢູ່ໃນງານວາງສະແດງ A80. ຮູບປະກອບ
ພ້ອມກັນນັ້ນ, ຄົ້ນຄວ້າເພີ່ມເຕີມຫຼັກການ “ຄວາມຮັບຜິດຊອບຂອງຜູ້ມີສ່ວນກ່ຽວຂ້ອງຕໍ່ຜົນກະທົບດ້ານຈັນຍາບັນ ແລະ ສັງຄົມຂອງລະບົບ AI ຕະຫຼອດໄລຍະການຄົ້ນຄວ້າເຖິງການນຳໃຊ້ລະບົບ”; ຊີ້ແຈງຄວາມສໍາພັນລະຫວ່າງກົດລະບຽບດ້ານຈັນຍາບັນ (ຄໍາແນະນໍາ) ແລະພັນທະທາງດ້ານກົດຫມາຍ (ບັງຄັບ).
ນອກຈາກນັ້ນ, ອີງຕາມຄະນະກໍາມະການວິທະຍາສາດ, ເຕັກໂນໂລຊີແລະສິ່ງແວດລ້ອມ, ມາດຕາ 28 ຂອງຮ່າງກົດຫມາຍພຽງແຕ່ໄດ້ກໍານົດຄວາມຮັບຜິດຊອບດ້ານຈັນຍາບັນຂອງພາກລັດ, ໃນຂະນະທີ່ຄໍາຮ້ອງສະຫມັກ AI ໃນພາກເອກະຊົນ (ເຊັ່ນ: ການດູແລສຸຂະພາບ, ການເງິນ, ການສຶກສາ , ແລະອື່ນໆ) ຍັງສາມາດເຮັດໃຫ້ເກີດຜົນກະທົບທາງສັງຄົມແລະຈັນຍາບັນທີ່ຄ້າຍຄືກັນ. ສະນັ້ນ, ຈຶ່ງສະເໜີໃຫ້ອົງການຮ່າງກົດໝາຍຄົ້ນຄວ້າ ແລະ ພິຈາລະນາ ຕື່ມບັນດາບົດບັນຍັດກ່ຽວກັບຄວາມຮັບຜິດຊອບດ້ານຈັນຍາບັນຂອງພາກເອກະຊົນ, ຮັບປະກັນຄວາມເປັນເອກະພາບ ໃນຂອບເຂດບັນດາຂໍ້ກຳນົດຂອງກົດໝາຍ.
ເພີ່ມກົດລະບຽບສະເພາະເພື່ອປົກປ້ອງເດັກນ້ອຍ
ປະທານກຳມາທິການວິທະຍາສາດ, ເຕັກໂນໂລຊີ ແລະ ສິ່ງແວດລ້ອມ ຫງວຽນແທ່ງຫາຍ ຊີ້ແຈ້ງວ່າ: ສຳລັບວິຊາທີ່ມີຄວາມສ່ຽງເຊັ່ນ: ເດັກນ້ອຍ, AI ຍັງມີດ້ານລົບທີ່ໜ້າເປັນຫ່ວງ ເຊັ່ນ: ເມື່ອອີງໃສ່ AI ຫຼາຍເກີນໄປເພື່ອຊອກຫາຄຳຕອບ ຫຼື ແກ້ບົດຝຶກຫັດ, ເດັກນ້ອຍມີຄວາມສ່ຽງທີ່ຈະສູນເສຍໂອກາດໃນການປະຕິບັດຄວາມສາມາດໃນການຄິດເອກະລາດ, ວິເຄາະ ແລະ ປະດິດສ້າງ; ມັກຈະມີພຶດຕິກໍາ deviant; ອາດຈະຜິດພາດ AI ສໍາລັບເພື່ອນທີ່ແທ້ຈິງແລະປະຕິບັດຄໍາແນະນໍາຈາກ AI ທີ່ອາດຈະບໍ່ເຫມາະສົມຫຼືເປັນອັນຕະລາຍ; ຖືກຫຼອກລວງ ຫຼື ຖືກຫຼອກລວງ...

ກົດໝາຍວ່າດ້ວຍປັນຍາປະດິດຈຳເປັນຕ້ອງມີລະບຽບການແຍກຕົວເພື່ອປົກປ້ອງເດັກຈາກດ້ານລົບຂອງ AI, ຊີ້ນຳໃຫ້ເດັກໃຊ້ AI ຢ່າງປອດໄພແລະມີສຸຂະພາບດີ. ຮູບປະກອບ
ປະທານກຳມາທິການວິທະຍາສາດ, ເຕັກໂນໂລຊີ ແລະ ສິ່ງແວດລ້ອມ ຫງວຽນແທ່ງຫາຍ ຊີ້ແຈ້ງວ່າ: ກົດໝາຍ AI ຂອງ ອີຕາລີ ກຳນົດໃຫ້ຜູ້ອາຍຸຕ່ຳກວ່າ 14 ປີ ສາມາດນຳໃຊ້ AI ດ້ວຍການເຫັນດີຈາກພໍ່ແມ່ ຫຼື ຜູ້ປົກຄອງ; ອີງຕາມການສະເຫນີທີ່ຜ່ານມາ, ຜູ້ໃຊ້ໃນ EU ຕ້ອງມີອາຍຸເກີນ 16 ປີເພື່ອໃຊ້ AI ໂດຍບໍ່ມີການຍິນຍອມເຫັນດີຈາກພໍ່ແມ່; ກົດໝາຍວ່າດ້ວຍການຄວບຄຸມ AI Chatbot ຂອງລັດຄາລິຟໍເນຍ (ສະຫະລັດ) ກໍານົດວ່າເວທີ AI ຈໍາເປັນຕ້ອງແຈ້ງໃຫ້ຜູ້ໃຊ້ທີ່ມີອາຍຸຕ່ໍາກວ່າ 18 ປີໃນທຸກໆ 3 ຊົ່ວໂມງຢ່າງຊັດເຈນວ່າພວກເຂົາສົນທະນາກັບ Chatbot, ບໍ່ແມ່ນມະນຸດ.
ບົນພື້ນຖານນັ້ນ, ຄະນະກຳມະ ການແນະນຳໃຫ້ອົງການສ້າງຮ່າງສຶກສາ ແລະ ເພີ່ມເຕີມບັນດາລະບຽບການສະເພາະເພື່ອປົກປ້ອງເດັກຈາກແງ່ລົບຂອງ AI, ຊີ້ນຳໃຫ້ເດັກນຳໃຊ້ AI ຢ່າງປອດໄພ ແລະ ມີສຸຂະພາບເຂັ້ມແຂງ, ໃນນັ້ນບົດບາດ ແລະ ຄວາມຮັບຜິດຊອບຂອງພໍ່ແມ່ ແລະ ໂຮງຮຽນໃນການຕິດຕາມ ແລະ ຍົກສູງຄວາມຮັບຮູ້ຂອງເດັກກ່ຽວກັບ AI.
ທີ່ມາ: https://phunuvietnam.vn/can-co-che-de-bao-ve-tre-em-truoc-cac-mat-trai-cua-ai-20251121112842757.htm






(0)