ທ່ານຄິດແນວໃດກ່ຽວກັບແນວໂນ້ມຂອງແຮກເກີ "ອາວຸດ" AI ເພື່ອປະຕິບັດການໂຈມຕີທາງອິນເຕີເນັດແລະການສໍ້ໂກງ?
ທ່ານດຣ ຫງວຽນຕວນແຄງ: ອີງຕາມດັດຊະນີ IBM 2024 X-Force Threat Intelligence Index, ອາຊີ - ປາຊີຟິກ , ໃນນັ້ນມີ ຫວຽດນາມ, ແມ່ນພາກພື້ນທີ່ຈະຖືກໂຈມຕີທາງອິນເຕີແນັດຫຼາຍທີ່ສຸດໃນໂລກໃນປີ 2023.
ວິທີການຕົ້ນຕໍຂອງຄົນບໍ່ດີແມ່ນການໂຈມຕີ phishing ເປົ້າຫມາຍຜູ້ທີ່ມີຄວາມສ່ຽງແລະໃຊ້ຊ່ອງໂຫວ່ເພື່ອຕິດຕັ້ງ malware. ນອກຈາກນັ້ນ, ແນວໂນ້ມທີ່ພົ້ນເດັ່ນຂື້ນໃນປີ 2024 ແມ່ນການໂຈມຕີທາງອິນເຕີເນັດທີ່ກ່ຽວຂ້ອງກັບປັນຍາປະດິດ (AI).
ບົດລາຍງານຂອງ Wired ຊີ້ໃຫ້ເຫັນວ່າຄົນບໍ່ດີຈໍານວນຫຼາຍກໍາລັງໃຊ້ AI ທົ່ວໄປເພື່ອຊ່ວຍແນະນໍາການແຮັກ, ສ້າງ chatbots ສໍ້ໂກງ, ຫຼືສ້າງຮູບພາບ Deepfake ແລະ ວິດີໂອ ທີ່ເຮັດຕາມໃບຫນ້າແລະສຽງຂອງຄົນອື່ນ.
ຢ່າງໃດກໍຕາມ, ຄຽງຄູ່ກັບທ່າອ່ຽງນີ້, ລະບົບຄວາມປອດໄພຂອງຂໍ້ມູນຍັງເລີ່ມຕົ້ນທີ່ຈະປະສົມປະສານຄຸນນະສົມບັດ AI, ເຊັ່ນ watsonx. ປັນຍາທຽມສາມາດຖືກຂູດຮີດ, ແຕ່ຍັງສາມາດທົດແທນມະນຸດໃນການວິເຄາະ, ຕິດຕາມ, ກໍານົດຕົວເລກ, ຄາດຄະເນສະຖານະການການໂຈມຕີ, ດັ່ງນັ້ນການປັບປຸງຄວາມສາມາດໃນການປ້ອງກັນແລະຫຼຸດຜ່ອນຄວາມສ່ຽງດ້ານຄວາມປອດໄພຂອງຂໍ້ມູນ.
ການຫລອກລວງ Deepfake ແມ່ນກາຍເປັນເລື່ອງທົ່ວໄປຫຼາຍຂຶ້ນ. ດ້ວຍການພັດທະນາຢ່າງໄວວາຂອງ AI, ການໂຈມຕີເຫຼົ່ານີ້ຈະເປັນອັນຕະລາຍແນວໃດໃນອະນາຄົດ?
ທ່ານດຣ ຫງວຽນຕ໋ວນແຄງ: ໂດຍພື້ນຖານແລ້ວ, Deepfake ແມ່ນເທັກໂນໂລຍີທີ່ຊ່ວຍແຮກເກີສ້າງຕົວຕົນດິຈິຕອນປອມ, ດ້ວຍເຫດນີ້ການປອມຕົວເປັນຄົນອື່ນ. Deepfake ຈະເປັນບັນຫາອັນຕະລາຍເພາະວ່າເຕັກໂນໂລຢີນີ້ກາຍເປັນຄວາມຊັບຊ້ອນຫຼາຍຂຶ້ນ.
ເພື່ອຕໍ່ສູ້ກັບ Deepfake, ສິ່ງທໍາອິດທີ່ຕ້ອງເຮັດຄືການກໍານົດວ່າຮູບພາບຫຼືສຽງຂອງບຸກຄົນແມ່ນສ້າງ AI. ໃນປັດຈຸບັນບໍ່ມີເຄື່ອງມືທົ່ວໄປທີ່ສາມາດກວດພົບ Deepfakes ທັນທີເພາະວ່າຜູ້ໂຈມຕີກໍາລັງພັດທະນາຮູບແບບໃຫມ່ຢ່າງຕໍ່ເນື່ອງ.
ນອກເໜືອໄປຈາກການກວດຫາ Deepfake ແລ້ວ, ຍັງມີອີກເຕັກນິກໜຶ່ງເພື່ອຮັບມືກັບມັນ, ເຊິ່ງແມ່ນການນຳໃຊ້ເທັກໂນໂລຢີເພື່ອວິເຄາະພຶດຕິກຳ. ຈາກທັດສະນະຂອງອົງການຈັດຕັ້ງແລະທຸລະກິດ, ມັນຈໍາເປັນຕ້ອງພັດທະນາລະບົບທີ່ປະສົມປະສານທັງສອງເຕັກນິກນີ້.
ໃນເວລາບໍ່ດົນມານີ້, ມີການໂຈມຕີທາງອິນເຕີເນັດທີ່ແຮກເກີໄດ້ປູກ malware ຢ່າງລັບໆຢູ່ໃນລະບົບຂອງບໍລິສັດ. ມັລແວແມ່ນຢູ່ໃນລໍຖ້າ ແລະວິເຄາະການເຄື່ອນໄຫວທັງໝົດ, ດັ່ງນັ້ນຈຶ່ງສ້າງຕົວຕົນປອມເພື່ອປະຕິບັດເຈດຕະນາທີ່ເປັນອັນຕະລາຍ. ດ້ວຍການພັດທະນາເທກໂນໂລຍີ Deepfake, ບວກກັບຄວາມສາມາດໃນການສ້າງວິດີໂອທີ່ສ້າງໂດຍ AI, ປະເພດຂອງການໂຈມຕີເຫຼົ່ານີ້ຈະເປັນອັນຕະລາຍຫຼາຍໃນອະນາຄົດ.
ດ້ວຍການເພີ່ມຂື້ນຂອງການໂຈມຕີທາງອິນເຕີເນັດ Deepfake, ພວກເຮົາສາມາດປົກປ້ອງຜູ້ສູງອາຍຸ, ເດັກນ້ອຍແລະກຸ່ມທີ່ມີຄວາມສ່ຽງອື່ນໆຈາກຜູ້ຫລອກລວງໄດ້ແນວໃດ?
ດຣ ຫງວຽນຕ໋ວນແຄງ: ຜູ້ເຖົ້າ ແລະ ເດັກນ້ອຍ ມັກຈະຖືກພວກຫຼອກລວງ ໂຈມຕີ ດ້ວຍເຕັກນິກທີ່ເອີ້ນວ່າ ວິສະວະກຳສັງຄົມ. ນີ້ແມ່ນຄໍາສັບທີ່ອະທິບາຍການໂຈມຕີໂດຍຜ່ານການຫມູນໃຊ້ພຶດຕິກໍາຂອງມະນຸດ.
ຕອນນີ້ແຮກເກີສາມາດໃຊ້ AI ປະສົມປະສານກັບການເກັບກໍາຂໍ້ມູນ, ການຂຸດຄົ້ນ, ແລະການວິເຄາະເພື່ອກໍານົດຜູ້ທີ່ອາດຈະຖືກຫລອກລວງແລະຫຼັງຈາກນັ້ນຊອກຫາວິທີທີ່ຈະໂຈມຕີ. ນອກຈາກການປູກຈິດສໍານຶກໃນຊຸມຊົນແລ້ວ, ພວກເຮົາຍັງຕ້ອງຍອມຮັບວ່າສະຖານະການທີ່ຜູ້ໃຊ້ຖືກຫລອກລວງຈະເກີດຂື້ນ, ແລະຕ້ອງໃຊ້ເຕັກໂນໂລຢີໃນການກວດສອບແລະປ້ອງກັນ.
ຫວ່າງມໍ່ໆມານີ້, ໄດ້ມີກໍລະນີທີ່ພະນັກງານທະນາຄານສົງໃສວ່າມີແມ່ເຖົ້າຜູ້ໜຶ່ງທີ່ເຂົ້າມາໂອນເງິນມີສັນຍານວ່າຖືກຫລອກລວງ. ບຸກຄົນນີ້ ໄດ້ຢຸດຕິທຸລະກຳທັນທີ ແລະ ລາຍງານຕໍ່ເຈົ້າໜ້າທີ່. ລະບົບ IT ຂອງທະນາຄານໃນປັດຈຸບັນມີເຕັກໂນໂລຢີເພື່ອທົດແທນມະນຸດໃນວຽກງານດັ່ງກ່າວ.
ບົດບາດຂອງເທກໂນໂລຍີແມ່ນວ່າເຖິງແມ່ນວ່າຜູ້ສົ່ງຈະຮູ້ວ່າເປັນຄົນທີ່ແທ້ຈິງ, ລະບົບຈະຍັງຄົງຢຸດການໂອນຖ້າຖືກສົງໃສວ່າການເຮັດທຸລະກໍາຖືກຫມູນໃຊ້ໂດຍຜູ້ອື່ນ. ເຄື່ອງມືດັ່ງກ່າວເອີ້ນວ່າລະບົບປ້ອງກັນການສໍ້ໂກງ.
ຮອດເວລາແລ້ວທີ່ຫວຽດນາມ ຈະມີມາດຕະການລົງໂທດເພື່ອຄຸ້ມຄອງ AI, ເອົາໃຈໃສ່ຄົ້ນຄວ້າ, ພັດທະນາ ແລະ ນຳໃຊ້ AI ເຂົ້າໃນຂອບເຂດ?
ທ່ານດຣ ຫງວຽນຕ໋ວນແຄງ: ບັນຫາການຄຸ້ມຄອງ AI ໄດ້ປຶກສາຫາລືເປັນເວລາດົນນານແລ້ວ, ເຖິງຢ່າງໃດກໍຕາມ, ແຕ່ຍັງມີການໂຕ້ຖຽງກັນຫຼາຍຢ່າງ. ຕົວຢ່າງ, ບ່ອນຈອດລົດໃນເຂດຂອງຂ້ອຍມີລະບົບ AI ເພື່ອຮັບຮູ້ປ້າຍທະບຽນ, ແຕ່ຍັງມີການລັກຂະໂມຍຢູ່. ໃນເວລານັ້ນ, ການໂຕ້ຖຽງກັນໄດ້ເລີ່ມຕົ້ນຂຶ້ນກ່ຽວກັບຄວາມຜິດຂອງໃຜ. ເຈົ້າຂອງອາພາດເມັນ, ເຈົ້າຫນ້າທີ່ຮັກສາຄວາມປອດໄພຫຼືຜູ້ພັດທະນາລະບົບ AI ຄວນຮັບຜິດຊອບບໍ?
ຕັ້ງແຕ່ນັ້ນມາ, ອາຄານໄດ້ປ່ຽນແປງກົດລະບຽບ, ໂດຍກ່າວວ່າຜູ້ຢູ່ອາໄສສາມາດເລືອກໃຊ້ AI ເພື່ອຮັບຮູ້ປ້າຍທະບຽນເພື່ອຄວາມສະດວກ, ແຕ່ພວກເຂົາຕ້ອງຍອມຮັບຄວາມສ່ຽງ. ຜູ້ທີ່ເຫັນດີຈະສາມາດນໍາໃຊ້ປະຕູອັດຕະໂນມັດ, ຜູ້ທີ່ບໍ່ໄດ້ຈະມີການຈອດລົດຂອງເຂົາເຈົ້າທາງເກົ່າ. ພວກເຮົາຈໍາເປັນຕ້ອງມີການລົງໂທດເຊັ່ນນັ້ນ.
ເຊັ່ນດຽວກັນ, IBM ເຄີຍພັດທະນາລະບົບ AI ເພື່ອຊ່ວຍປ້ອງກັນມະເຮັງ. ເມື່ອລະບົບສັ່ງຢາ, ແຕ່ຄົນເຈັບໄດ້ເອົາມັນມາແຕ່ຍັງບໍ່ສາມາດຊ່ວຍປະຢັດ, ມັນເປັນຄວາມຜິດຂອງທ່ານຫມໍຫຼືຄວາມຜິດຂອງ AI?
ຂ້າພະເຈົ້າຄິດວ່າກົດລະບຽບຂອງ AI ຈໍາເປັນຕ້ອງມີຄວາມສະເພາະເຈາະຈົງ, ບອກຢ່າງຊັດເຈນວ່າສິ່ງທີ່ສາມາດເຮັດໄດ້ແລະບໍ່ສາມາດເຮັດໄດ້ໃນເວລາທີ່ການພັດທະນາຄໍາຮ້ອງສະຫມັກ AI. ເພື່ອເຮັດໃຫ້ໂລກປອດໄພກວ່າ, ກົດລະບຽບພື້ນຖານທີ່ສຸດທີ່ພວກເຮົາສາມາດເຮັດໄດ້ແມ່ນຮຽກຮ້ອງໃຫ້ມີການໂອນເງິນຂະຫນາດໃຫຍ່ເພື່ອຮັບຮູ້ທາງຊີວະພາບ. ໃນສະຖານະການດັ່ງກ່າວ, ຄົນທີ່ສູນເສຍຂໍ້ມູນຕົວຕົນຂອງພວກເຂົາສາມາດຫຼີກເວັ້ນການສູນເສຍເງິນຢ່າງສົມບູນ.
ຂອບໃຈ.
ທີ່ມາ
(0)