ດ້ວຍຈັງຫວະການປັບປຸງຢ່າງວ່ອງໄວ, ປັນຍາປະດິດ (AI) ພວມສ້າງ “ການປະຕິວັດ” ໃນຫຼາຍຂົງເຂດ - ຈາກການຮັກສາສຸຂະພາບ, ການສຶກສາ , ທຸລະກິດ... ເຖິງຊີວິດປະຈຳວັນ. ຢ່າງໃດກໍ່ຕາມ, ດ້ານລົບຂອງເຕັກໂນໂລຢີນີ້ເຮັດໃຫ້ເກີດສິ່ງທ້າທາຍທີ່ສໍາຄັນຕໍ່ການຄຸ້ມຄອງແລະການຄວບຄຸມຂໍ້ມູນໃນ cyberspace.
ນໍ້າຖ້ວມດ້ວຍຂ່າວປອມທີ່ສ້າງໂດຍ AI
ຂ່າວປອມທີ່ສ້າງຂຶ້ນໂດຍ AI ແມ່ນແຜ່ຂະຫຍາຍຢູ່ໃນເວທີສື່ມວນຊົນສັງຄົມສ່ວນໃຫຍ່ແມ່ນເພື່ອດຶງດູດການເບິ່ງ, ມັກ, ເພີ່ມການພົວພັນເພື່ອຂາຍອອນໄລນ໌ຫຼືກໍາໄລຈາກເວທີ.
ຄົນທີ່ສ້າງຂ່າວປອມມັກຈະ "ຕິດຕາມ" ບັນຫາຮ້ອນໆທີ່ເປັນຄວາມກັງວົນຂອງປະຊາຊົນ. ຕົວຢ່າງ, ພາຍຫຼັງເກີດອຸປະຕິເຫດການສັນຈອນຢ່າງໜັກໜ່ວງໃນວັນທີ 17 ກັນຍາ ຢູ່ຕະຫຼາດ ເຕີນລອງ, ເມືອງ ລາວບາວ, ແຂວງ ກວ໋າງຈີ , ເຮັດໃຫ້ມີຜູ້ບາດເຈັບ ແລະ ເສຍຊີວິດ 12 ຄົນ, ຮູບພາບອັນເສົ້າສະຫຼົດໃຈຫຼາຍຮູບໄດ້ປະກົດຂຶ້ນໃນເຄືອຂ່າຍສັງຄົມ, ນຳນ້ຳຕາໃຫ້ກັບຜູ້ຊົມຫຼາຍສົມຄວນ. ຕັດສິນໃຈວ່າຮູບພາບເຫຼົ່ານີ້ສ້າງໂດຍ AI, ຕຳຫຼວດເມືອງລາວບາວໄດ້ອອກຄຳເຕືອນກ່ຽວກັບການກະທຳເຜີຍແຜ່ຮູບພາບປອມທີ່ເຮັດໃຫ້ເກີດຄວາມເຂົ້າໃຈຜິດ. ການກະທໍານີ້ບໍ່ພຽງແຕ່ເຮັດໃຫ້ຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງແຜ່ຂະຫຍາຍ, ແຕ່ຍັງສົ່ງຜົນກະທົບຕໍ່ການສືບສວນ.
ໃນຂະນະດຽວກັນ, ໄດ້ຮັບຄວາມເອົາໃຈໃສ່ຈາກປະຊາຊົນຢູ່ອ້ອມແອ້ມເຮືອ ທ່ອງທ່ຽວ Blue Bay 58 ທີ່ຕົກຢູ່ອ່າວຮ່າລອງ, ແຂວງ ກວາງນິງ ໃນວັນທີ 19 ກໍລະກົດທີ່ຜ່ານມາ, ເຮັດໃຫ້ມີຜູ້ເສຍຊີວິດຫຼາຍສິບຄົນ, ໃນສັງຄົມຫຼາຍຮູບການລົງຮູບພາບ ແລະ ເລື່ອງລາວກ່ຽວກັບຜູ້ປະສົບເຄາະຮ້າຍ. ຢ່າງໃດກໍ່ຕາມ, ຫຼາຍໆເນື້ອໃນເຫຼົ່ານີ້ແມ່ນປອມ, ສ້າງຂຶ້ນໂດຍໃຊ້ AI ເພື່ອ "ຕີ" ອາລົມແລະດຶງດູດການໂຕ້ຕອບຂອງຜູ້ໃຊ້ສື່ສັງຄົມ. ເປັນທີ່ສັງເກດ, ຮູບພາບປອມທີ່ແຜ່ລາມອອກໄປດ້ວຍເນື້ອໃນທີ່ເຫັນອົກເຫັນໃຈເກີນໄປ ອາດຈະສ້າງຄວາມເຈັບປວດທາງຈິດໃຈຕໍ່ຄອບຄົວຂອງຜູ້ເຄາະຮ້າຍ.
ດ້ວຍເທກໂນໂລຍີ AI ໄດ້ຮັບການປັບປຸງທຸກໆມື້, ມັນໃຊ້ເວລາພຽງແຕ່ສອງສາມນາທີດ້ວຍຄໍາສັ່ງງ່າຍໆເພື່ອສ້າງວິດີໂອທີ່ມີເນື້ອຫາທີ່ຫນ້າສົນໃຈ, ເປັນຄວາມຈິງກັບຄວາມຕັ້ງໃຈຂອງຜູ້ໃຊ້. ໂດຍສະເພາະ, ເວທີ AI ລຸ້ນໃໝ່ເຊັ່ນ KlingAI, Veo 3, Sora... ແມ່ນມີຄວາມນິຍົມຫຼາຍຈາກຜູ້ໃຊ້ທົ່ວໂລກ, ລວມທັງຫວຽດນາມ.
ນອກຈາກນັ້ນ, ເທກໂນໂລຍີ deepfake - ການປະສົມປະສານຂອງການຮຽນຮູ້ເລິກແລະການປອມແປງ - ຍັງເຮັດໃຫ້ເກີດຄວາມກັງວົນຢ່າງຫຼວງຫຼາຍໃນທົ່ວໂລກຍ້ອນວ່າມັນສາມາດຖືກນໍາໃຊ້ເພື່ອສ້າງຮູບພາບ, ສຽງຫຼືວິດີໂອທີ່ແທ້ຈິງທີ່ມີຄວາມຫຍຸ້ງຍາກຫຼາຍທີ່ຈະກວດພົບວ່າເປັນການປອມແປງ. ຍ້ອນເຫດນັ້ນ, ການຫລອກລວງທີ່ກ່ຽວຂ້ອງເຖິງເຕັກໂນໂລຊີນີ້ໄດ້ເກີດຂຶ້ນຢູ່ຫວຽດນາມ ແລະ ໃນໂລກ.
ທ່ານພົນໂທ ຫງວຽນແມ້ງຮຸ່ງ, ຮອງປະທານສະມາຄົມຄວາມປອດໄພທາງໄຊເບີແຫ່ງຊາດໃຫ້ຂໍ້ສັງເກດວ່າ, ມີທ່າອ່ຽງນຳໃຊ້ AI ເພື່ອແນໃສ່ຜິດກົດໝາຍ. ໂດຍສະເພາະ, AI-as-a-Service (ການບໍລິການທີ່ສະຫນອງເຄື່ອງມື AI ແລະແອັບພລິເຄຊັນ - PV) ຖືກຂູດຮີດໂດຍອາຊະຍາກໍາທາງອິນເຕີເນັດເພື່ອສ້າງລະຫັດທີ່ເປັນອັນຕະລາຍ, ສຽງປອມ, ໃບຫນ້າ, ຂໍ້ຄວາມ ... ເພື່ອດໍາເນີນການສໍ້ໂກງ, ໂຈມຕີເຄືອຂ່າຍ, ແຊກຊຶມລະບົບຂໍ້ມູນ, ເຖິງແມ່ນວ່າຈະເຮັດໃຫ້ເກີດຄວາມບໍ່ສະຖຽນລະພາບດ້ານຄວາມປອດໄພ, ແລະທໍາລາຍຊື່ສຽງຂອງອົງການຈັດຕັ້ງ, ທຸລະກິດແລະຜູ້ນໍາ.
ອີງຕາມທ່ານ Tran Ngoc Anh, ຜູ້ອໍານວຍການດ້ານວິຊາການຂອງບໍລິສັດ Cyber Peace ຈໍາກັດ (CyPeace), ຫນຶ່ງໃນຄວາມສ່ຽງສໍາລັບຜູ້ໃຊ້ AI ແມ່ນວ່າພວກເຂົາອາດຈະໄດ້ຮັບຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງທີ່ສ້າງຂຶ້ນໂດຍເຄື່ອງມືນີ້ເອງ. ນອກນີ້, ຍັງມີບັນຫາອື່ນໆອີກເຊັ່ນ: ການເປີດເຜີຍຂໍ້ມູນຄວາມລັບ, ຂໍ້ມູນສ່ວນຕົວ...
ຮູບພາບປອມຖືກເຜີຍແຜ່ຢູ່ໃນອິນເຕີເນັດເພື່ອ "ດຶງດູດນ້ຳຕາ" ຈາກຜູ້ຊົມ, ດ້ວຍເຫດນີ້ຈຶ່ງດຶງດູດຄວາມມັກແລະການພົວພັນທີ່ເພີ່ມຂຶ້ນ (ພາບຖ່າຍຫນ້າຈໍ)
ເພີ່ມຄວາມຮັບຜິດຊອບຂອງຜູ້ໃຊ້
ກ່ອນທີ່ຈະມີມາດຕະການທາງດ້ານເຕັກໂນໂລຢີແລະທາງດ້ານກົດຫມາຍເພື່ອຄວບຄຸມການພັດທະນາແລະການນໍາໃຊ້ AI ຢ່າງເຂັ້ມງວດ, ຜູ້ໃຊ້ຈໍາເປັນຕ້ອງໃຊ້ເຕັກໂນໂລຢີນີ້ຢ່າງມີຄວາມຮັບຜິດຊອບ.
ທ່ານ ຫວູຫງອກເຊີນ, ຜູ້ຊ່ຽວຊານດ້ານຄວາມປອດໄພທາງອິນເຕີເນັດ, ຫົວໜ້າກົມເຕັກໂນໂລຊີຂອງສະມາຄົມຄວາມປອດໄພທາງໄຊເບີແຫ່ງຊາດ, ຊີ້ແຈ້ງວ່າ: ມະນຸດແມ່ນວິຊາທີ່ຂຸດຄົ້ນ ແລະ ນຳໃຊ້ AI, ສະນັ້ນ ດ້ານດີ ແລະ ບໍ່ດີຂອງ AI ແມ່ນກ່ຽວຂ້ອງຢ່າງໃກ້ຊິດກັບມະນຸດ. ຖ້າຜູ້ໃຊ້ມີຄຸນສົມບັດແລະນໍາໃຊ້ມັນເພື່ອຈຸດປະສົງທີ່ດີ, ເຕັກໂນໂລຢີຈະສົ່ງເສີມຄວາມເຂັ້ມແຂງທີ່ເປັນປະໂຫຍດຂອງມັນ. ໃນທາງກົງກັນຂ້າມ, ຖ້າຜູ້ໃຊ້ AI ຂາດຄວາມເຂົ້າໃຈຫຼືໃຊ້ປະໂຫຍດຈາກມັນເພື່ອຈຸດປະສົງທີ່ຜິດກົດຫມາຍ, ມັນສາມາດເຮັດໃຫ້ເກີດຜົນສະທ້ອນທີ່ຮ້າຍແຮງ. "ເພື່ອນໍາໃຊ້ແລະຂຸດຄົ້ນ AI ໃຫ້ມີປະສິດຕິຜົນ, ມັນຈໍາເປັນຕ້ອງໄດ້ສຸມໃສ່ການສ້າງທີມງານແລະຂະບວນການ. AI ພຽງແຕ່ສົ່ງເສີມມູນຄ່າຂອງມັນໃນເວລາທີ່ຢູ່ໃນມືຂອງຜູ້ທີ່ຮູ້ວິທີການຊໍານິຊໍານານມັນ," ຜູ້ຊ່ຽວຊານດ້ານຄວາມປອດໄພ cyber ກ່າວ.
ຕໍ່ກັບໄພອັນຕະລາຍຂອງການປອມແປງ-ເຕັກໂນໂລຊີຊັ້ນນໍາ ໃນມື້ນີ້, ໃນຂັ້ນຕອນການຮ່າງກົດໝາຍວ່າດ້ວຍການລົງທຶນ ແລະ ທຸລະກິດ, ກະຊວງການເງິນຍັງໄດ້ເນັ້ນວ່າ: ທຸລະກິດເຕັກໂນໂລຊີ Deepfake ຕ້ອງມີລະບຽບການເປັນສາຍທຸລະກິດທີ່ມີເງື່ອນໄຂ ເພື່ອປ້ອງກັນການລັກລອບເຕັກໂນໂລຊີ ເຮັດໃຫ້ເກີດປະກົດການຫຍໍ້ທໍ້, ສໍ້ໂກງຂໍ້ມູນ... ຕາມກະຊວງການເງິນແລ້ວ, ປະຈຸບັນ, ທຸລະກິດເຕັກໂນໂລຍີເລິກລັບ ເປັນໜຶ່ງໃນຂະແໜງໃໝ່, ດ້ານຄວາມປອດໄພ ແລະ ລະບຽບການບໍ່ເປັນລະບຽບ.
ຕາມທະນາຍຄວາມ ເຈິ່ນແອງຕວນ (ຮ່າໂນ້ຍ) ໃຫ້ຮູ້ວ່າ, ຖ້າ AI ຖືກນຳໃຊ້ເພື່ອສ້າງເນື້ອໃນໂດຍບໍ່ໄດ້ຮັບອະນຸຍາດ, ໂດຍສະເພາະແມ່ນການສ້າງຂໍ້ມູນປອມ, ປອມ ຫຼື ສໍ້ໂກງ, ອາດຈະລະເມີດຂໍ້ກຳນົດຂອງປະມວນກົດໝາຍແພ່ງ. ຕາມນັ້ນແລ້ວ, ຜູ້ລະເມີດຈະຖືກລົງໂທດທາງບໍລິຫານຫຼືການຊົດເຊີຍຄ່າເສຍຫາຍ. ໃນກໍລະນີທີ່ມີຜົນສະທ້ອນຮ້າຍແຮງ, ຄວາມຮັບຜິດຊອບທາງອາຍາອາດຈະຖືກດໍາເນີນຄະດີ. "ຜູ້ໃຊ້ຕ້ອງລະມັດລະວັງໃນເວລາເຂົ້າຫາແລະນໍາໃຊ້ AI, ຫຼີກເວັ້ນການໃຊ້ປະໂຫຍດຈາກ AI ຢ່າງແທ້ຈິງເພື່ອດຶງດູດ views ແລະມັກ; ເສີມຂະຫຍາຍຄວາມຮັບຜິດຊອບສ່ວນບຸກຄົນ, ປະຕິບັດຕາມກົດຫມາຍໃນເວລາທີ່ນໍາໃຊ້ AI ເຊັ່ນດຽວກັນກັບການມີສ່ວນຮ່ວມໃນສະພາບແວດລ້ອມອອນໄລນ໌." - ທະນາຍຄວາມ Tuan ແນະນໍາ.
ທ່ານພົນໂທ ຫງວຽນຈີ໋ວີ້ງ ເນັ້ນໜັກວ່າ: ປັດໄຈຫຼັກໃນການພັດທະນາ AI ແບບຍືນຍົງແມ່ນແຫຼ່ງຊັບພະຍາກອນມະນຸດ. ຈາກນັກຄົ້ນຄວ້າ, ວິສະວະກອນ, ຜູ້ຊ່ຽວຊານດ້ານຄວາມປອດໄພທາງອິນເຕີເນັດເຖິງຜູ້ຈັດການແລະຜູ້ໃຊ້, ທັງຫມົດຕ້ອງມີຄວາມຮູ້, ທັກສະ, ຈັນຍາບັນແລະຄວາມຮູ້ທາງດ້ານກົດຫມາຍຢ່າງເຕັມທີ່. ຕາມທ່ານ Chinh ແລ້ວ, ນີ້ບໍ່ພຽງແຕ່ແມ່ນທິມງານທີ່ສ້າງ ແລະ ດຳເນີນງານລະບົບ AI ເທົ່ານັ້ນ, ຫາກຍັງແມ່ນກຳລັງສຳຄັນໃນການປ້ອງກັນ, ກວດສອບ ແລະ ຕ້ານອາດຊະຍາກຳເຕັກໂນໂລຊີສູງຢູ່ທາງອິນເຕີແນັດ.
ຫວຽດນາມ ຈະມີກົດໝາຍວ່າດ້ວຍປັນຍາປະດິດ
ທີ່ກອງປະຊຸມວິທະຍາສາດແຫ່ງຊາດກ່ຽວກັບ AI ເມື່ອບໍ່ດົນມານີ້, ທ່ານລັດຖະມົນຕີກະຊວງວິທະຍາສາດ ແລະ ເຕັກໂນໂລຊີ ຫງວຽນແມ້ງຮຸ່ງ ໃຫ້ຮູ້ວ່າ: AI ເປີດກາລະໂອກາດອັນໃຫຍ່ຫຼວງ ແຕ່ຍັງຍົກອອກມາຫຼາຍບັນຫາກ່ຽວກັບຈັນຍາບັນ, ວຽກເຮັດງານທຳ ແລະ ຄວາມໄວ້ເນື້ອເຊື່ອໃຈຂອງສັງຄົມ. ດັ່ງນັ້ນ, AI ຕ້ອງໄດ້ຮັບການພັດທະນາຢ່າງໄວວາ, ປອດໄພແລະມະນຸດ.
ຕາມທ່ານລັດຖະມົນຕີ ຫງວຽນແມ້ງຮຸ່ງ, AI ບໍ່ໄດ້ປ່ຽນແທນມະນຸດແຕ່ຮັບໃຊ້ມະນຸດ, ແມ່ນຜູ້ຊ່ວຍເຫຼືອມະນຸດ. AI ເປັນເຄື່ອງມືທີ່ມີປະສິດທິພາບແຕ່ມະນຸດເປັນຜູ້ຕັດສິນໃຈ, ສະນັ້ນໃຫ້ AI ສະຫນັບສະຫນູນ, ບໍ່ທົດແທນແນວຄິດ, ຄຸນຄ່າແລະຄວາມຮັບຜິດຊອບຂອງມະນຸດ. “ກະຊວງວິທະຍາສາດ ແລະ ເຕັກໂນໂລຊີ ຈະອອກກົດໝາຍວ່າດ້ວຍຈັນຍາບັນ AI ແຫ່ງຊາດ ສອດຄ່ອງກັບມາດຕະຖານສາກົນ ແຕ່ອອກແບບໃຫ້ແທດເໝາະກັບການປະຕິບັດຂອງຫວຽດນາມ, ພ້ອມດຽວກັນນັ້ນ ກໍ່ສ້າງກົດໝາຍ AI ແລະຍຸດທະສາດ AI” - ທ່ານລັດຖະມົນຕີ ຫງວຽນແມ້ງຮຸ່ງ ໃຫ້ຮູ້ວ່າ.
ທີ່ມາ: https://nld.com.vn/ngan-cong-nghe-vuot-ranh-gioi-dao-duc-196250923205638915.htm
(0)