ປັນຍາປະດິດ (AI) ເຊັ່ນ ChatGPT ເປັນຄວາມຮູ້ສຶກທົ່ວໂລກຕັ້ງແຕ່ຕົ້ນປີ 2023, ແຕ່ AI ນີ້ບໍ່ໄດ້ໃຊ້ເພື່ອຈຸດປະສົງໃນທາງບວກສະເໝີໄປ. ບໍ່ດົນມານີ້, ຜູ້ຊ່ຽວຊານດ້ານຄວາມປອດໄພໄດ້ພົບເຫັນວິທີທີ່ຈະຂໍໃຫ້ ChatGPT ສ້າງລະຫັດທີ່ເປັນອັນຕະລາຍໃນລະຫວ່າງການທົດສອບ.
Aaron Mulgrew, ຜູ້ຊ່ຽວຊານດ້ານຄວາມປອດໄພຂອງ Forcepoint, ແບ່ງປັນຄວາມສ່ຽງຂອງການຂຽນ malware ໂດຍໃຊ້ chatbot ພາສາ OpenAI. ເຖິງແມ່ນວ່າ ChatGPT ຖືກອອກແບບມາເພື່ອປ້ອງກັນບໍ່ໃຫ້ຜູ້ໃຊ້ຮ້ອງຂໍໃຫ້ AI ອອກແບບ malware, Aaron ຍັງຄົງພົບຊ່ອງຫວ່າງໂດຍການສ້າງ prompts ສໍາລັບ AI ການຂຽນໂປລແກລມລະຫັດເສັ້ນໂດຍສາຍ. ເມື່ອລວມເຂົ້າກັນ, Aaron ຮູ້ວ່າລາວມີເຄື່ອງມືປະຕິບັດການລັກຂໍ້ມູນທີ່ບໍ່ສາມາດກວດພົບໄດ້ຢູ່ໃນມືຂອງລາວ, ມີຄວາມຊັບຊ້ອນທີ່ສົມທຽບກັບ malware ທີ່ທັນສະໄຫມທີ່ສຸດໃນປະຈຸບັນ.
ແຕ່ລະແຖວຄໍາສັ່ງທີ່ສ້າງຂຶ້ນໂດຍ ChatGPT, ເມື່ອລວມເຂົ້າກັນ, ສາມາດກາຍເປັນ malware ທີ່ຊັບຊ້ອນໄດ້.
ການຄົ້ນພົບຂອງ Mulgrew ແມ່ນການຕື່ນຕົວກ່ຽວກັບທ່າແຮງທີ່ AI ຖືກນໍາໃຊ້ເພື່ອສ້າງ malware ອັນຕະລາຍໂດຍບໍ່ຈໍາເປັນຕ້ອງມີກຸ່ມແຮກເກີ, ຫຼືແມ້ກະທັ້ງຜູ້ສ້າງເຄື່ອງມືທີ່ຂຽນລະຫັດເສັ້ນດຽວ.
ຊອບແວຂອງ Mulgrew ຖືກປອມຕົວເປັນແອັບພລິເຄຊັນຕົວປະຢັດໜ້າຈໍ, ແຕ່ສາມາດເປີດໃຊ້ອັດຕະໂນມັດໃນອຸປະກອນທີ່ໃຊ້ Windows. ເມື່ອຢູ່ໃນລະບົບປະຕິບັດການ, malware "infiltrates" ທຸກໆໄຟລ໌, ລວມທັງຕົວແກ້ໄຂຂໍ້ຄວາມ Word, ໄຟລ໌ຮູບພາບແລະ PDFs, ຊອກຫາຂໍ້ມູນເພື່ອລັກ.
ເມື່ອມັນມີສິ່ງທີ່ມັນຕ້ອງການ, ໂປລແກລມຈະທໍາລາຍຂໍ້ມູນແລະຕິດກັບໄຟລ໌ຮູບພາບໃນເຄື່ອງ. ເພື່ອຫຼີກເວັ້ນການກວດພົບ, ຮູບພາບຈະຖືກອັບໂຫຼດໃສ່ໂຟນເດີໃນ Google Drive. malware ແມ່ນມີອໍານາດຫຼາຍເພາະວ່າ Mulgrew ສາມາດປັບແລະປັບປຸງຄຸນສົມບັດຂອງມັນເພື່ອຫຼີກເວັ້ນການກວດພົບໂດຍຜ່ານຄໍາສັ່ງງ່າຍໆທີ່ເຂົ້າໄປໃນ ChatGPT.
ເຖິງແມ່ນວ່ານີ້ແມ່ນການທົດສອບສ່ວນຕົວໂດຍຜູ້ຊ່ຽວຊານດ້ານຄວາມປອດໄພແລະບໍ່ມີການໂຈມຕີໃດໆທີ່ດໍາເນີນຢູ່ນອກຂອບເຂດການທົດສອບ, ຊຸມຊົນຄວາມປອດໄພທາງອິນເຕີເນັດຍັງຮັບຮູ້ເຖິງອັນຕະລາຍຂອງກິດຈະກໍາທີ່ໃຊ້ ChatGPT. Mulgrew ອ້າງວ່າລາວບໍ່ມີປະສົບການຫຼາຍໃນການຂຽນໂປລແກລມ, ແຕ່ປັນຍາປະດິດຂອງ OpenAI ຍັງບໍ່ແຂງແຮງແລະສະຫລາດພໍທີ່ຈະປ້ອງກັນການທົດສອບຂອງລາວ.
ແຫຼ່ງທີ່ມາ










(0)