ທ່ານຄິດແນວໃດກ່ຽວກັບແນວໂນ້ມຂອງແຮກເກີ "ອາວຸດ" AI ເພື່ອປະຕິບັດການໂຈມຕີທາງອິນເຕີເນັດແລະການສໍ້ໂກງ?

ທ່ານ​ດຣ ຫງວຽນ​ຕວນ​ແຄງ: ອີງ​ຕາມ​ດັດ​ຊະ​ນີ IBM 2024 X-Force Threat Intelligence Index, ອາຊີ - ປາຊີ​ຟິກ , ​ໃນ​ນັ້ນ​ມີ ຫວຽດນາມ, ​ແມ່ນ​ພາກ​ພື້ນ​ທີ່​ຈະ​ຖືກ​ໂຈມ​ຕີ​ທາງ​ອິນ​ເຕີ​ແນັດ​ຫຼາຍ​ທີ່​ສຸດ​ໃນ​ໂລກ​ໃນ​ປີ 2023.

ວິທີການຕົ້ນຕໍຂອງຄົນບໍ່ດີແມ່ນການໂຈມຕີ phishing ເປົ້າຫມາຍຜູ້ທີ່ມີຄວາມສ່ຽງແລະໃຊ້ຊ່ອງໂຫວ່ເພື່ອຕິດຕັ້ງ malware. ນອກຈາກນັ້ນ, ແນວໂນ້ມທີ່ພົ້ນເດັ່ນຂື້ນໃນປີ 2024 ແມ່ນການໂຈມຕີທາງອິນເຕີເນັດທີ່ກ່ຽວຂ້ອງກັບປັນຍາປະດິດ (AI).

ບົດລາຍງານຂອງ Wired ຊີ້ໃຫ້ເຫັນວ່າຄົນບໍ່ດີຈໍານວນຫຼາຍກໍາລັງໃຊ້ AI ທົ່ວໄປເພື່ອຊ່ວຍແນະນໍາການແຮັກ, ສ້າງ chatbots ສໍ້ໂກງ, ຫຼືສ້າງຮູບພາບ Deepfake ແລະ ວິດີໂອ ທີ່ເຮັດຕາມໃບຫນ້າແລະສຽງຂອງຄົນອື່ນ.

ຢ່າງໃດກໍຕາມ, ຄຽງຄູ່ກັບທ່າອ່ຽງນີ້, ລະບົບຄວາມປອດໄພຂອງຂໍ້ມູນຍັງເລີ່ມຕົ້ນທີ່ຈະປະສົມປະສານຄຸນນະສົມບັດ AI, ເຊັ່ນ watsonx. ປັນຍາທຽມສາມາດຖືກຂູດຮີດ, ແຕ່ຍັງສາມາດທົດແທນມະນຸດໃນການວິເຄາະ, ຕິດຕາມ, ກໍານົດຕົວເລກ, ຄາດຄະເນສະຖານະການການໂຈມຕີ, ດັ່ງນັ້ນການປັບປຸງຄວາມສາມາດໃນການປ້ອງກັນແລະຫຼຸດຜ່ອນຄວາມສ່ຽງດ້ານຄວາມປອດໄພຂອງຂໍ້ມູນ.

W-nguyen-tuan-khang-ibm-1.jpg
ຜູ້ຊ່ຽວຊານດ້ານຄວາມປອດໄພທາງໄຊເບີ ຫງວຽນຕ໋ວນແຄງ. ພາບ: ກົງດາດ

ການຫລອກລວງ Deepfake ແມ່ນກາຍເປັນເລື່ອງທົ່ວໄປຫຼາຍຂຶ້ນ. ດ້ວຍການພັດທະນາຢ່າງໄວວາຂອງ AI, ການໂຈມຕີເຫຼົ່ານີ້ຈະເປັນອັນຕະລາຍແນວໃດໃນອະນາຄົດ?

ທ່ານດຣ ຫງວຽນຕ໋ວນແຄງ: ໂດຍພື້ນຖານແລ້ວ, Deepfake ແມ່ນເທັກໂນໂລຍີທີ່ຊ່ວຍແຮກເກີສ້າງຕົວຕົນດິຈິຕອນປອມ, ດ້ວຍເຫດນີ້ການປອມຕົວເປັນຄົນອື່ນ. Deepfake ຈະເປັນບັນຫາອັນຕະລາຍເພາະວ່າເຕັກໂນໂລຢີນີ້ກາຍເປັນຄວາມຊັບຊ້ອນຫຼາຍຂຶ້ນ.

ເພື່ອຕໍ່ສູ້ກັບ Deepfake, ສິ່ງທໍາອິດທີ່ຕ້ອງເຮັດຄືການກໍານົດວ່າຮູບພາບຫຼືສຽງຂອງບຸກຄົນແມ່ນສ້າງ AI. ໃນປັດຈຸບັນບໍ່ມີເຄື່ອງມືທົ່ວໄປທີ່ສາມາດກວດພົບ Deepfakes ທັນທີເພາະວ່າຜູ້ໂຈມຕີກໍາລັງພັດທະນາຮູບແບບໃຫມ່ຢ່າງຕໍ່ເນື່ອງ.

ນອກເໜືອໄປຈາກການກວດຫາ Deepfake ແລ້ວ, ຍັງມີອີກເຕັກນິກໜຶ່ງເພື່ອຮັບມືກັບມັນ, ເຊິ່ງແມ່ນການນຳໃຊ້ເທັກໂນໂລຢີເພື່ອວິເຄາະພຶດຕິກຳ. ຈາກທັດສະນະຂອງອົງການຈັດຕັ້ງແລະທຸລະກິດ, ມັນຈໍາເປັນຕ້ອງພັດທະນາລະບົບທີ່ປະສົມປະສານທັງສອງເຕັກນິກນີ້.

ໃນເວລາບໍ່ດົນມານີ້, ມີການໂຈມຕີທາງອິນເຕີເນັດທີ່ແຮກເກີໄດ້ປູກ malware ຢ່າງລັບໆຢູ່ໃນລະບົບຂອງບໍລິສັດ. ມັລແວແມ່ນຢູ່ໃນລໍຖ້າ ແລະວິເຄາະການເຄື່ອນໄຫວທັງໝົດ, ດັ່ງນັ້ນຈຶ່ງສ້າງຕົວຕົນປອມເພື່ອປະຕິບັດເຈດຕະນາທີ່ເປັນອັນຕະລາຍ. ດ້ວຍການພັດທະນາເທກໂນໂລຍີ Deepfake, ບວກກັບຄວາມສາມາດໃນການສ້າງວິດີໂອທີ່ສ້າງໂດຍ AI, ປະເພດຂອງການໂຈມຕີເຫຼົ່ານີ້ຈະເປັນອັນຕະລາຍຫຼາຍໃນອະນາຄົດ.

ດ້ວຍການເພີ່ມຂື້ນຂອງການໂຈມຕີທາງອິນເຕີເນັດ Deepfake, ພວກເຮົາສາມາດປົກປ້ອງຜູ້ສູງອາຍຸ, ເດັກນ້ອຍແລະກຸ່ມທີ່ມີຄວາມສ່ຽງອື່ນໆຈາກຜູ້ຫລອກລວງໄດ້ແນວໃດ?

ດຣ ຫງວຽນຕ໋ວນແຄງ: ຜູ້ເຖົ້າ ແລະ ເດັກນ້ອຍ ມັກຈະຖືກພວກຫຼອກລວງ ໂຈມຕີ ດ້ວຍເຕັກນິກທີ່ເອີ້ນວ່າ ວິສະວະກຳສັງຄົມ. ນີ້ແມ່ນຄໍາສັບທີ່ອະທິບາຍການໂຈມຕີໂດຍຜ່ານການຫມູນໃຊ້ພຶດຕິກໍາຂອງມະນຸດ.

ຕອນນີ້ແຮກເກີສາມາດໃຊ້ AI ປະສົມປະສານກັບການເກັບກໍາຂໍ້ມູນ, ການຂຸດຄົ້ນ, ແລະການວິເຄາະເພື່ອກໍານົດຜູ້ທີ່ອາດຈະຖືກຫລອກລວງແລະຫຼັງຈາກນັ້ນຊອກຫາວິທີທີ່ຈະໂຈມຕີ. ນອກຈາກການປູກຈິດສໍານຶກໃນຊຸມຊົນແລ້ວ, ພວກເຮົາຍັງຕ້ອງຍອມຮັບວ່າສະຖານະການທີ່ຜູ້ໃຊ້ຖືກຫລອກລວງຈະເກີດຂື້ນ, ແລະຕ້ອງໃຊ້ເຕັກໂນໂລຢີໃນການກວດສອບແລະປ້ອງກັນ.

W-online-fraud-1.jpg
ແຈ້ງ​ການ​ກ່ຽວ​ກັບ​ກໍລະນີ​ປອມ​ຕົວ​ເຈົ້າ​ໜ້າ​ທີ່​ຕຳຫຼວດ​ເພື່ອ​ຫຼອກ​ລວງ​ການ​ໂອນ​ເງິນ​ໂດຍ​ຕຳຫຼວດ​ເຂດ​ແທງ​ລູງ ( ຮ່າ​ໂນ້ຍ ). ພາບ: ກົງດາດ

ຫວ່າງມໍ່ໆມານີ້, ໄດ້ມີກໍລະນີທີ່ພະນັກງານທະນາຄານສົງໃສວ່າມີແມ່ເຖົ້າຜູ້ໜຶ່ງທີ່ເຂົ້າມາໂອນເງິນມີສັນຍານວ່າຖືກຫລອກລວງ. ບຸກຄົນນີ້ ໄດ້ຢຸດຕິທຸລະກຳທັນທີ ແລະ ລາຍງານຕໍ່ເຈົ້າໜ້າທີ່. ລະບົບ IT ຂອງທະນາຄານໃນປັດຈຸບັນມີເຕັກໂນໂລຢີເພື່ອທົດແທນມະນຸດໃນວຽກງານດັ່ງກ່າວ.

ບົດບາດຂອງເທກໂນໂລຍີແມ່ນວ່າເຖິງແມ່ນວ່າຜູ້ສົ່ງຈະຮູ້ວ່າເປັນຄົນທີ່ແທ້ຈິງ, ລະບົບຈະຍັງຄົງຢຸດການໂອນຖ້າຖືກສົງໃສວ່າການເຮັດທຸລະກໍາຖືກຫມູນໃຊ້ໂດຍຜູ້ອື່ນ. ເຄື່ອງມືດັ່ງກ່າວເອີ້ນວ່າລະບົບປ້ອງກັນການສໍ້ໂກງ.

ຮອດ​ເວລາ​ແລ້ວ​ທີ່​ຫວຽດນາມ ຈະ​ມີ​ມາດ​ຕະການ​ລົງ​ໂທດ​ເພື່ອ​ຄຸ້ມ​ຄອງ AI, ​ເອົາ​ໃຈ​ໃສ່​ຄົ້ນຄວ້າ, ພັດທະນາ ​ແລະ ນຳ​ໃຊ້ AI ​ເຂົ້າ​ໃນ​ຂອບ​ເຂດ?

ທ່ານ​ດຣ ຫງວຽນ​ຕ໋ວນ​ແຄງ: ບັນຫາ​ການ​ຄຸ້ມ​ຄອງ AI ​ໄດ້​ປຶກສາ​ຫາລື​ເປັນ​ເວລາ​ດົນ​ນານ​ແລ້ວ, ​ເຖິງ​ຢ່າງ​ໃດ​ກໍ​ຕາມ, ​ແຕ່​ຍັງ​ມີ​ການ​ໂຕ້​ຖຽງ​ກັນ​ຫຼາຍ​ຢ່າງ. ຕົວຢ່າງ, ບ່ອນຈອດລົດໃນເຂດຂອງຂ້ອຍມີລະບົບ AI ເພື່ອຮັບຮູ້ປ້າຍທະບຽນ, ແຕ່ຍັງມີການລັກຂະໂມຍຢູ່. ໃນ​ເວ​ລາ​ນັ້ນ, ການ​ໂຕ້​ຖຽງ​ກັນ​ໄດ້​ເລີ່ມ​ຕົ້ນ​ຂຶ້ນ​ກ່ຽວ​ກັບ​ຄວາມ​ຜິດ​ຂອງ​ໃຜ. ເຈົ້າຂອງອາພາດເມັນ, ເຈົ້າຫນ້າທີ່ຮັກສາຄວາມປອດໄພຫຼືຜູ້ພັດທະນາລະບົບ AI ຄວນຮັບຜິດຊອບບໍ?

ຕັ້ງແຕ່ນັ້ນມາ, ອາຄານໄດ້ປ່ຽນແປງກົດລະບຽບ, ໂດຍກ່າວວ່າຜູ້ຢູ່ອາໄສສາມາດເລືອກໃຊ້ AI ເພື່ອຮັບຮູ້ປ້າຍທະບຽນເພື່ອຄວາມສະດວກ, ແຕ່ພວກເຂົາຕ້ອງຍອມຮັບຄວາມສ່ຽງ. ຜູ້​ທີ່​ເຫັນ​ດີ​ຈະ​ສາ​ມາດ​ນໍາ​ໃຊ້​ປະ​ຕູ​ອັດ​ຕະ​ໂນ​ມັດ​, ຜູ້​ທີ່​ບໍ່​ໄດ້​ຈະ​ມີ​ການ​ຈອດ​ລົດ​ຂອງ​ເຂົາ​ເຈົ້າ​ທາງ​ເກົ່າ​. ພວກເຮົາຈໍາເປັນຕ້ອງມີການລົງໂທດເຊັ່ນນັ້ນ.

ເຊັ່ນດຽວກັນ, IBM ເຄີຍພັດທະນາລະບົບ AI ເພື່ອຊ່ວຍປ້ອງກັນມະເຮັງ. ເມື່ອລະບົບສັ່ງຢາ, ແຕ່ຄົນເຈັບໄດ້ເອົາມັນມາແຕ່ຍັງບໍ່ສາມາດຊ່ວຍປະຢັດ, ມັນເປັນຄວາມຜິດຂອງທ່ານຫມໍຫຼືຄວາມຜິດຂອງ AI?

ຂ້າພະເຈົ້າຄິດວ່າກົດລະບຽບຂອງ AI ຈໍາເປັນຕ້ອງມີຄວາມສະເພາະເຈາະຈົງ, ບອກຢ່າງຊັດເຈນວ່າສິ່ງທີ່ສາມາດເຮັດໄດ້ແລະບໍ່ສາມາດເຮັດໄດ້ໃນເວລາທີ່ການພັດທະນາຄໍາຮ້ອງສະຫມັກ AI. ເພື່ອເຮັດໃຫ້ໂລກປອດໄພກວ່າ, ກົດລະບຽບພື້ນຖານທີ່ສຸດທີ່ພວກເຮົາສາມາດເຮັດໄດ້ແມ່ນຮຽກຮ້ອງໃຫ້ມີການໂອນເງິນຂະຫນາດໃຫຍ່ເພື່ອຮັບຮູ້ທາງຊີວະພາບ. ໃນສະຖານະການດັ່ງກ່າວ, ຄົນທີ່ສູນເສຍຂໍ້ມູນຕົວຕົນຂອງພວກເຂົາສາມາດຫຼີກເວັ້ນການສູນເສຍເງິນຢ່າງສົມບູນ.

ຂອບໃຈ.

ການຫລອກລວງ Deepfake, ການຫລອກລວງໃບຫນ້າແລະສຽງຈະເພີ່ມຂຶ້ນໃນປີ 2024 ອີງຕາມການຄາດຄະເນຂອງ VSEC, ການໂຈມຕີທາງອິນເຕີເນັດໂດຍໃຊ້ AI, ລວມທັງການຫລອກລວງ Deepfake ເພື່ອຫຼອກລວງໃບຫນ້າແລະສຽງ, ຈະເພີ່ມຂຶ້ນໃນປີ 2024.