ທ່າແຮງມາພ້ອມກັບຄວາມສ່ຽງ
ເປັນທີ່ປະຕິເສດບໍ່ໄດ້ວ່າປັນຍາປະດິດ (AI) ແມ່ນນັບມື້ນັບໄດ້ຮັບການພິສູດວ່າເປັນເຄື່ອງມືທີ່ມີປະສິດທິພາບໃນການສະໜັບສະໜູນຄົນງານ ແລະ ອຳນວຍຄວາມສະດວກໃຫ້ແກ່ຊີວິດມະນຸດ. ຢ່າງໃດກໍຕາມ, ຜະລິດຕະພັນເຕັກໂນໂລຢີເຫຼົ່ານີ້ແມ່ນຄ້າຍຄື "ດາບສອງຄົມ" ເມື່ອພວກເຂົາຖືກຂູດຮີດໂດຍຄົນບໍ່ດີເພື່ອດໍາເນີນການສໍ້ໂກງແລະການໂຈມຕີໃນ cyberspace.
ໃນຂ່າວເຕືອນຈາກກົມຄວາມປອດໄພຂໍ້ມູນຂ່າວສານ ( ກະຊວງຂໍ້ມູນຂ່າວສານແລະການສື່ສານ ) ຫຼືສະມາຄົມຄວາມປອດໄພ Cyber , ຈໍານວນຫຼາຍກໍລະນີການສໍ້ໂກງໂດຍນໍາໃຊ້ເຕັກໂນໂລຊີ AI ໄດ້ຖືກກ່າວເຖິງ. ຕົວຢ່າງ, ນາງ ຫງວຽນແທ່ງທິ - ພະນັກງານຫ້ອງການຢູ່ຮ່າໂນ້ຍ, ໃນຂະນະທີ່ສົນທະນາກັບໝູ່ຜ່ານ Facebook Messenger, ໝູ່ຄົນນັ້ນໄດ້ລາ ແລະ ຈົບການສົນທະນາ ແຕ່ທັນທີທັນໃດກັບຄືນຂໍ້ຄວາມ, ຂໍຢືມເງິນ ແລະ ຂໍໂອນເງິນເຂົ້າບັນຊີທະນາຄານ. ເຖິງວ່າຊື່ບັນຊີຈະກົງກັບຊື່ໝູ່ຂອງນາງ, ແຕ່ນາງ T ມີຄວາມສົງໃສຈຶ່ງໄດ້ຮ້ອງຂໍການໂທດ້ວຍວິດີໂອເພື່ອຢັ້ງຢືນ. ຫມູ່ເພື່ອນໄດ້ຕົກລົງທັນທີ, ແຕ່ການໂທພຽງແຕ່ໃຊ້ເວລາສອງສາມວິນາທີເນື່ອງຈາກ "ເຄືອຂ່າຍ intermittent".
ເຫັນໜ້າໝູ່ຂອງນາງໃນການໂທທາງ ວິດີໂອ , ແລະສຽງກໍຖືກຕ້ອງ, ນາງ T ໄດ້ໂອນເງິນໃຫ້. ຢ່າງໃດກໍຕາມ, ພຽງແຕ່ຫຼັງຈາກການໂອນສົບຜົນສໍາເລັດນາງຮູ້ວ່ານາງໄດ້ຕົກຢູ່ໃນຈັ່ນຈັບຂອງແຮກເກີ.
ບໍ່ພຽງແຕ່ນາງ T ເທົ່ານັ້ນ, ຜູ້ເຄາະຮ້າຍອີກຫລາຍຄົນ, ໝູ່ເພື່ອນ ແລະ ຍາດພີ່ນ້ອງກໍຖືກຫລອກລວງດ້ວຍວິທີດຽວກັນ. ຍອດເງິນທີ່ພວກຄົນບໍ່ດີຫລອກລວງຈາກການປອມຕົວດ້ວຍເຄື່ອງມືປອມແປງທີ່ເລິກເຊິ່ງແລະສຽງດັງໄດ້ມີເຖິງຫຼາຍສິບລ້ານດົ່ງ.
ຕົວຢ່າງອີກອັນຫນຶ່ງຂອງການນໍາໃຊ້ AI ກັບຊັບສິນທີ່ເຫມາະສົມແມ່ນກໍລະນີຂອງທ່ານ NTH, ເມື່ອໃຊ້ໂທລະສັບ Android, scammers ຕິດຕັ້ງໃສ່ກັບດັກທີ່ມີຄໍາແນະນໍາໃນການຕິດຕັ້ງການເຊື່ອມຕໍ່ malware. ຈາກນັ້ນ, ພວກເຂົາເຈົ້າໄດ້ເຂົ້າຄວບຄຸມໂທລະສັບແລະບັນຊີທະນາຄານເພື່ອໂອນເງິນໃຫ້ບຸກຄົນທີສາມ. ນອກຈາກນັ້ນ, malware ຍັງຕິດຕໍ່ກັບຂໍ້ມູນການຕິດຕໍ່ທີ່ມີຢູ່ໂດຍອັດຕະໂນມັດແລະສົ່ງຂໍ້ຄວາມອັດຕະໂນມັດຖາມການໂອນເງິນ.
ທ່ານ NTH ກ່າວວ່າ ຜູ້ລັກລອບອ້າງວ່າເປັນ "ເຈົ້າໜ້າທີ່ ຕຳຫຼວດ " ໄດ້ໂທຫາເບີໂທລະສັບຂອງຕົນ ແລະຂໍໃຫ້ກວດສອບຂໍ້ມູນຕົວຕົນ. ຍ້ອນວ່າລາວມີອາຍຸ, ບໍ່ຄຸ້ນເຄີຍກັບເຕັກໂນໂລຢີ, ແລະມີຄວາມໂງ່ຈ້າ, ຜູ້ເຄາະຮ້າຍໄດ້ຜ່ານໂທລະສັບຂອງລາວໄປຫາບຸກຄົນທີສາມເພື່ອຂໍໃຫ້ລາວປະຕິບັດຕາມຄໍາແນະນໍາຂອງຜູ້ຫລອກລວງ, ດັ່ງນັ້ນຈຶ່ງດາວໂຫລດແລະຕິດຕັ້ງແອັບພລິເຄຊັນທີ່ເປັນອັນຕະລາຍ "DichVuCong.apk" ໃນໂທລະສັບຂອງລາວ.
ທ່ານ ເຈີ່ນງວຽນຈຸງ, ຫົວໜ້າກົມຮັກສາຄວາມປອດໄພລະບົບຂໍ້ມູນຂ່າວສານ (ກົມຮັກສາຄວາມປອດໄພຂໍ້ມູນຂ່າວສານ) ໃຫ້ຮູ້ວ່າ: ເມື່ອເຕັກໂນໂລຊີ AI ໄດ້ຮັບການພັດທະນາ, ການກວດຫາ ແລະຈຳແນກລະຫວ່າງເນື້ອໃນຂອງແທ້ ແລະ ປອມໃນ cyberspace ຈະກາຍເປັນເລື່ອງຍາກກວ່າ ແລະ ໃຜກໍຕາມສາມາດຕົກເປັນເປົ້າໝາຍ, ຕົກເປັນເຫຍື່ອຂອງການໂຈມຕີທາງອິນເຕີເນັດໂດຍອາດຊະຍາກອນນຳໃຊ້ເຕັກໂນໂລຊີ AI. ຢ່າງໃດກໍ່ຕາມ, ບໍ່ວ່າຈະເປັນຜູ້ຖືກເຄາະຮ້າຍຫຼືບໍ່ແມ່ນຂຶ້ນກັບການສະຫນອງຄວາມຮູ້ແລະຂໍ້ມູນທີ່ຈໍາເປັນຂອງແຕ່ລະຄົນ.
ສະພາບການສໍ້ໂກງເຕັກໂນໂລຊີ AI ນີ້ບໍ່ພຽງແຕ່ປະກົດຢູ່ຫວຽດນາມເທົ່ານັ້ນ ຫາກຍັງຢູ່ຫຼາຍປະເທດໃນໂລກ. ປະຈຸບັນ, ບັນດາອົງການ, ອົງການຈັດຕັ້ງ ແລະ ບໍລິສັດເຕັກໂນໂລຊີຂະໜາດໃຫຍ່ພວມສົມທົບກັນຊອກຫາມາດຕະການ ແລະ ວິທີແກ້ໄຂທາງດ້ານເຕັກນິກເພື່ອສະກັດກັ້ນບໍ່ໃຫ້ມີຮາກຖານ.
ໃນໄລຍະປະຈຸບັນ, ມາດຕະການທີ່ສໍາຄັນແມ່ນເພື່ອສົ່ງເສີມການເຜີຍແຜ່, ປູກຈິດສໍານຶກຂອງປະຊາຊົນກ່ຽວກັບວິທີການ, tricks ແລະວິທີການຮັບຮູ້ແລະຈັດການກັບຮູບແບບທີ່ຊັບຊ້ອນຂອງ forgery ນີ້ເພື່ອຊ່ວຍຫຼຸດຜ່ອນແລະຈໍາກັດຜົນກະທົບຂອງ deepfake ກິດຈະກໍາໃນ cyberspace. ອອກຄຳເຕືອນຢ່າງຕັ້ງໜ້າຕໍ່ສື່ມວນຊົນ ເມື່ອມີການພັດທະນາໃໝ່ ແລະ ຮູບການສໍ້ໂກງ.
ທ່ານ Tran Nguyen Trung ໃຫ້ຮູ້ວ່າ: “ໃນກໍລະນີຮັບສາຍໂທລະສັບທີ່ມີຮູບພາບ ຫຼື ວິດີໂອທີ່ອ່ອນໄຫວ, ປະຊາຊົນຕ້ອງຢູ່ໃນຄວາມສະຫງົບ, ກວດສອບ ແລະ ຄົ້ນຄ້ວາຕົ້ນກຳເນີດຂອງຮູບພາບ ແລະ ວິດີໂອຢ່າງລະມັດລະວັງ.
ຕາມບົດລາຍງານຄົ້ນຄວ້າ “ກຳນົດຄວາມສ່ຽງຕໍ່ເສດຖະກິດໂລກໃນປີ 2024” ຂອງມະຫາວິທະຍາໄລເສດຖະກິດ (UEB) ຂຶ້ນກັບມະຫາວິທະຍາໄລແຫ່ງຊາດຫວຽດນາມ, ຮ່າໂນ້ຍ, ໜຶ່ງໃນບັນດາຄວາມສ່ຽງທີ່ກະທົບເຖິງເສດຖະກິດໂລກແມ່ນຄວາມສ່ຽງໃນຂະແໜງເຕັກໂນໂລຊີ. ບົດລາຍງານຊີ້ອອກວ່າ, ໃນສະພາບການເພີ່ມຂຶ້ນຢ່າງວ່ອງໄວຂອງ AI, ນະໂຍບາຍບໍລິຫານຍັງບໍ່ທັນສາມາດຮັກສາການພັດທະນາຂອງ AI ໄດ້. ຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງທີ່ AI ສະຫນອງ, ໂດຍສະເພາະໃນປີທີ່ມີການເລືອກຕັ້ງຫຼາຍໃນໂລກເຊັ່ນປີນີ້, ໄດ້ຕັ້ງບັນຫາຫຼາຍຢ່າງຕໍ່ຄວາມປອດໄພ, ການເມືອງ, ການປ້ອງກັນແລະສັນຕິພາບໃນທົ່ວໂລກ.
ກ່າວຄຳເຫັນຕໍ່ວົງການນັກຂ່າວ Tin Tuc, ທ່ານຮອງລັດຖະມົນຕີກະຊວງວິທະຍາສາດ ແລະ ເຕັກໂນໂລຊີ ຫງວຽນຮ່ວາງຢາງ ໃຫ້ຮູ້ວ່າ: “ທ່ານນາຍົກລັດຖະມົນຕີ ໄດ້ອອກຂໍ້ຕົກລົງສະບັບເລກທີ 127/2021 ກ່ຽວກັບຍຸດທະສາດການຄົ້ນຄວ້າແຫ່ງຊາດ, ພັດທະນາ ແລະ ນຳໃຊ້ປັນຍາປະດິດຮອດປີ 2030. ເພື່ອປະຕິບັດ, ກະຊວງວິທະຍາສາດ ແລະ ເຕັກໂນໂລຊີ ກໍ່ຄືບັນດາກະຊວງ, ຂະແໜງການອື່ນໆ ໄດ້ປະຕິບັດຢ່າງຕັ້ງໜ້າ ແລະ ສົມທົບກັນຢ່າງແໜ້ນແຟ້ນ, ເປັນຕົ້ນແມ່ນກະຊວງວິທະຍາສາດຂໍ້ມູນຂ່າວສານ ແລະ ສື່ສານ. ເຕັກໂນໂລຊີ, ກະຊວງວິທະຍາສາດແລະເຕັກໂນໂລຊີຍັງໄດ້ສະຫນັບສະຫນູນ, ຄົ້ນຄ້ວາແລະພັດທະນາອຸດສາຫະກໍາ 4.0 ການຄົ້ນຄວ້າແລະນໍາໃຊ້ການພັດທະນາເຕັກໂນໂລຊີຂໍ້ມູນຂ່າວສານ, ຮັບໃຊ້ການພັດທະນາຂອງຕົວເມືອງດິຈິຕອນແລະ smart, ຢ່າງໃດກໍຕາມ, ການພັດທະນາຢ່າງວ່ອງໄວແລະເຂັ້ມແຂງ, ລັກສະນະທາງລົບແລະຄວາມສ່ຽງຂອງ AI ໄດ້ປະກົດວ່າມີການລ່ວງລະເມີດທີ່ຈະກາຍເປັນເຄື່ອງມືສໍາລັບການສໍ້ໂກງ, ການປອມຕົວ, ການຂົ່ມຂູ່, ແລະອື່ນໆ.
ມາຮອດປະຈຸບັນ, ຄຽງຄູ່ກັບການຄົ້ນຄວ້າ, ກະຊວງວິທະຍາສາດ ແລະ ເຕັກໂນໂລຊີ ແລະ ລັດຖະບານກໍ່ພວມຕັ້ງໜ້າກໍ່ສ້າງຂອບກົດໝາຍ, ຮ່ຳຮຽນຈາກປະສົບການຂອງບັນດາປະເທດພັດທະນາອື່ນ ເພື່ອໃຫ້ຂະແໜງ AI ຢູ່ ຫວຽດນາມ ເສີມຂະຫຍາຍທ່າແຮງ, ຊຸກຍູ້ການພັດທະນາຢ່າງເຂັ້ມງວດ, ຮັບປະກັນຈັນຍາບັນ, ມະນຸດສະທຳໃນຂົງເຂດປັນຍາປະດິດ.
ການພັດທະນາຢ່າງໄວວາຂອງເຄື່ອງມື AI ໄດ້ຍົກບັນຫາຫຼາຍຢ່າງກ່ຽວກັບສິດທິມະນຸດ, ຈັນຍາບັນ, ຄວາມເປັນສ່ວນຕົວ, ຄວາມປອດໄພຂອງຂໍ້ມູນແລະຄວາມຮັບຜິດຊອບທາງດ້ານກົດຫມາຍ. ເມື່ອທຽບໃສ່ໂລກ, ຫວຽດນາມ ຍັງຢູ່ໃນໄລຍະຕົ້ນຂອງການພັດທະນາ AI. ສະນັ້ນ, ຕ້ອງມີບັນດາມາດຕະການ ແລະ ນະໂຍບາຍສະເພາະ AI ທີ່ເໝາະສົມສຳລັບທຸກດ້ານຂອງຊີວິດ, ເສດຖະກິດ ແລະ ສັງຄົມຂອງຫວຽດນາມ.
ອອກຂອບກົດໝາຍຢ່າງຮີບດ່ວນ
ການຄຸ້ມຄອງດ້ານມືດຂອງ AI ຍັງເປັນຫົວຂໍ້ທີ່ໄດ້ຖືກສົນທະນາໃນຫຼາຍປະເທດ. ລັດຖະສະພາເອີຣົບໄດ້ຮັບຮອງເອົາກົດລະບຽບພື້ນຖານຊຸດທໍາອິດຂອງໂລກເພື່ອຄວບຄຸມປັນຍາປະດິດ. ຜູ້ຊ່ຽວຊານດ້ານເຕັກໂນໂລຢີຫຼາຍຄົນເຊື່ອວ່າກົດລະບຽບທີ່ກໍານົດໄວ້ນີ້ຈະຊ່ວຍໃຫ້ EU ບັນລຸເປົ້າຫມາຍທັງສອງ: ຫຼຸດຜ່ອນຜົນກະທົບທາງລົບຂອງການພັດທະນາເຕັກໂນໂລຢີຕໍ່ຜູ້ໃຊ້ເຊັ່ນດຽວກັນກັບການຈັບຕົວຂອງຄູ່ແຂ່ງທີ່ສໍາຄັນໃນຕະຫຼາດ.
ຫຼັງຈາກນັ້ນບໍ່ດົນ, ສະມັດຊາໃຫຍ່ສະຫະປະຊາຊາດໄດ້ຮັບຮອງເອົາມະຕິກ່ຽວກັບປັນຍາປະດິດ (AI), ສະຫນອງການສະຫນັບສະຫນູນທົ່ວໂລກສໍາລັບຄວາມພະຍາຍາມສາກົນເພື່ອຮັບປະກັນເຕັກໂນໂລຢີໃຫມ່ນີ້ໃຫ້ຜົນປະໂຫຍດແກ່ທຸກໆປະເທດ, ເຄົາລົບສິດທິມະນຸດ, ແລະ "ປອດໄພ, ປອດໄພ, ແລະເຊື່ອຖືໄດ້."
ທ່ານ ຫວູຫງອກເຊີນ, ຜູ້ອໍານວຍການດ້ານວິຊາການຂອງບໍລິສັດຫຸ້ນສ່ວນເຕັກໂນໂລຊີຄວາມປອດໄພທາງໄຊເບີແຫ່ງຊາດ, ໃຫ້ຮູ້ວ່າ: “AI ແມ່ນເຕັກໂນໂລຢີທີ່ຮັບໃຊ້ຜົນປະໂຫຍດຂອງມະນຸດ, ສະຫນັບສະຫນູນລະບົບອັດຕະໂນມັດຂອງຫຼາຍຂັ້ນຕອນຂອງການດໍາເນີນງານ. ນີ້ແມ່ນເຄື່ອງມືທີ່ມີປະສິດທິພາບ, ຖືກນໍາໃຊ້ເພື່ອຈຸດປະສົງທີ່ແຕກຕ່າງກັນເຊັ່ນ: ການບໍລິການ Q&A, ການຜະລິດຊອບແວ, ແລະອື່ນໆ. ເພື່ອໂຈມຕີຜູ້ໃຊ້ຕາມນັ້ນ, AI ບໍ່ແມ່ນເຄື່ອງມືໂດຍສະເພາະໃນການສ້າງຜະລິດຕະພັນຫຼືອາຊະຍາກໍາ, ແຕ່ບັນຫາທີ່ສໍາຄັນແມ່ນ "ວິທີການນໍາໃຊ້" AI.
ທ່ານ ຫວູຫງອກເຊີນ ກ່າວວ່າ “ຂ້າພະເຈົ້າຄິດວ່າ ບັນດາມາດຕະການລົງໂທດ ແລະ ແລວທາງກົດໝາຍຍັງບໍ່ທັນຕອບສະໜອງໄດ້ຄວາມໄວຂອງການພັດທະນາ AI ຢ່າງແທ້ຈິງ. ພວກເຮົາຈະຕ້ອງໃຊ້ເວລາເພື່ອສ້າງ ແລະ ນຳສະເໜີບັນດານະໂຍບາຍຈຳກັດຄວາມສ່ຽງຂອງ AI ເມື່ອຖືກນຳໃຊ້ເພື່ອຈຸດປະສົງທີ່ບໍ່ດີ, ກະທົບເຖິງສິດທິມະນຸດ ກໍ່ຄືຄວາມປອດໄພ, ຄວາມເປັນລະບຽບຮຽບຮ້ອຍ ແລະ ຄວາມປອດໄພທາງສັງຄົມ”.
ທ່ານດຣ ດັ້ງມິງຕວນ, ຜູ້ອຳນວຍການສະຖາບັນ CMC ATI ໃຫ້ຮູ້ວ່າ: “ໃນດ້ານໜຶ່ງ, ພວກເຮົາຍັງຕ້ອງສືບຕໍ່ຄົ້ນຄວ້າ ແລະ ພັດທະນາເຕັກໂນໂລຢີໃໝ່, ປັບປຸງ ແລະ ສຶກສາວິທີການນຳໃຊ້ AI ເພື່ອຈຸດປະສົງທີ່ບໍ່ດີ, ຄຽງຄູ່ກັນນັ້ນ, ພວກເຮົາກໍ່ຕ້ອງສົ່ງເສີມຄວາມຊື່ສັດໃນວິທະຍາສາດ ແລະ ວຽກງານ, ຕາມນັ້ນແລ້ວ, ຕ້ອງມີການດັດປັບ ແລະ ລົງທຶນໃນເນື້ອໃນ ແລະ ນະໂຍບາຍສະເພາະສຳລັບເຄື່ອງມືນີ້ໃນຫວຽດນາມ ກໍ່ຄື AI ສາມາດນຳໃຊ້ໄດ້. ຄືກັບ "ດາບສອງຄົມ", ສ້າງຂະບວນການຜົນກະທົບຢ່າງຕໍ່ເນື່ອງ, ຢ່າງຕໍ່ເນື່ອງ, ປັບປຸງຢ່າງຕໍ່ເນື່ອງດ້ວຍເປົ້າຫມາຍສູງສຸດເພື່ອຮັບໃຊ້ຜົນປະໂຫຍດຂອງມະນຸດ".
ຜູ້ຊ່ຽວຊານກ່າວວ່າ: ຄວາມຕ້ອງການແມ່ນການຄວບຄຸມການພັດທະນາຜະລິດຕະພັນເຕັກໂນໂລຢີສູງຢ່າງມີຄວາມຮັບຜິດຊອບ, ເພາະວ່າຄວາມບໍ່ສາມາດຄວບຄຸມແລະຕົ້ນສະບັບຂອງເຕັກໂນໂລຢີຈະນໍາໄປສູ່ຜົນສະທ້ອນທີ່ບໍ່ສາມາດຄາດເດົາໄດ້, ເຮັດໃຫ້ເກີດການສູນເສຍທາງດ້ານເສດຖະກິດແລະສົ່ງຜົນກະທົບຕໍ່ແຕ່ລະບຸກຄົນລວມທັງສັງຄົມທັງຫມົດ.
ການອອກລະບຽບການສະເພາະ ແລະ ໂປ່ງໃສ ບໍ່ພຽງແຕ່ຈະຊ່ວຍປ້ອງກັນ ແລະ ຫຼຸດຜ່ອນຄວາມສ່ຽງທີ່ AI ອາດຈະເຮັດໃຫ້ເກີດ, ແຕ່ຍັງຊ່ວຍໃຫ້ຫວຽດນາມ ດຶງດູດຄວາມສົນໃຈ ແລະ ການລົງທຶນຈາກບັນດາວິສາຫະກິດເຕັກໂນໂລຢີແຖວໜ້າຂອງໂລກ, ຊຸກຍູ້ການພັດທະນາຂອງຂະແໜງເຕັກໂນໂລຊີຂໍ້ມູນຂ່າວສານພາຍໃນປະເທດ ແລະ ອຸດສາຫະກຳ AI.
ບົດຄວາມສຸດທ້າຍ: ການພັດທະນາຂະຫນານແລະການຄວບຄຸມຂອງ AI
ທີ່ມາ: https://doanhnghiepvn.vn/cong-nghe/ai-dang-dinh-hinh-tuong-lai-bai-2-nhung-thach-thuc-di-kem/20240614100957238
(0)