
ເອກະສານທີ່ຕິດເຊື້ອສາມາດຮົ່ວຂໍ້ມູນໃນ Google Drive ຜ່ານ ChatGPT (ພາບ: Wired).
ຈຸດທີ່ຫນ້າເປັນຫ່ວງແມ່ນວ່າຊ່ອງໂຫວ່ນີ້ບໍ່ຕ້ອງການການດໍາເນີນການໃດໆຈາກຜູ້ໃຊ້, ຍົກສູງຄໍາເຕືອນໃຫມ່ກ່ຽວກັບຄວາມປອດໄພທາງອິນເຕີເນັດໃນສະພາບການຂອງຕົວແບບປັນຍາປະດິດ (AI) ທີ່ເຊື່ອມຕໍ່ຂໍ້ມູນສ່ວນບຸກຄົນເພີ່ມຂຶ້ນ.
ເອກະສານ "ເປັນພິດ" ນໍາໄປສູ່ການຮົ່ວໄຫລຂອງຂໍ້ມູນ
ໃນກອງປະຊຸມຄວາມປອດໄພ Black Hat ຢູ່ Las Vegas (ອາເມລິກາ) ວັນທີ 6 ເດືອນສິງຫາ, ສອງຜູ້ຊ່ຽວຊານ Michael Bargury ແລະ Tamir Ishay Sharbat ໄດ້ສະແດງໃຫ້ເຫັນວິທີການໂຈມຕີທີ່ເອີ້ນວ່າ AgentFlayer .
ການໂຈມຕີນີ້ໃຊ້ຊ່ອງໂຫວ່ຢູ່ໃນຕົວເຊື່ອມຕໍ່ – ຄຸນສົມບັດທີ່ເຊື່ອມຕໍ່ ChatGPT ກັບການບໍລິການພາຍນອກເຊັ່ນ Google Drive, Gmail ຫຼື Microsoft Calendar.
ທ່ານ Michael Bargury, CTO ຂອງບໍລິສັດຄວາມປອດໄພ Zenity ກ່າວວ່າ "ຜູ້ໃຊ້ບໍ່ຈໍາເປັນຕ້ອງເຮັດຫຍັງເພື່ອຖືກ hacked ຫຼືຂໍ້ມູນຂອງພວກເຂົາຮົ່ວໄຫລ.
ການໂຈມຕີເລີ່ມຕົ້ນໂດຍຜູ້ໂຈມຕີໄດ້ແບ່ງປັນເອກະສານ "ເປັນພິດ" ກັບ Google Drive ຂອງຜູ້ເຄາະຮ້າຍ. ເອກະສານປະກອບມີການກະຕຸ້ນເຕືອນທີ່ເປັນອັນຕະລາຍປະມານ 300 ຄໍາ, ຂຽນດ້ວຍຕົວອັກສອນສີຂາວຂະຫນາດ 1 - ເກືອບເບິ່ງບໍ່ເຫັນດ້ວຍຕາເປົ່າແຕ່ຍັງສາມາດອ່ານໄດ້ໂດຍຄອມພິວເຕີ.
ຢູ່ເທິງພື້ນຜິວ, ຂໍ້ຄວາມຖືກປອມຕົວເປັນບັນທຶກກອງປະຊຸມ. ໃນຄວາມເປັນຈິງ, ມັນມີຄໍາແນະນໍາສໍາລັບ ChatGPT ເພື່ອຊອກຫາແລະສະກັດລະຫັດ API ທີ່ລະອຽດອ່ອນຈາກບັນຊີ Google Drive ຂອງຜູ້ຖືກເຄາະຮ້າຍ.
ແທນທີ່ຈະສະຫຼຸບເນື້ອຫາຕາມທີ່ຜູ້ໃຊ້ຮ້ອງຂໍ, ການເຕືອນທີ່ເຊື່ອງໄວ້ນີ້ບັງຄັບໃຫ້ AI ສົ່ງລະຫັດ API ທີ່ມັນພົບໄປຫາເຄື່ອງແມ່ຂ່າຍພາຍນອກໂດຍຜ່ານການເຊື່ອມຕໍ່ Markdown. ຂໍ້ມູນຖືກສະກັດເປັນຮູບພາບ, ໃຫ້ເຄື່ອງແມ່ຂ່າຍສາມາດເກັບກໍາຂໍ້ມູນທັງຫມົດ.
OpenAI ໄດ້ແກ້ໄຂມັນ, ແຕ່ຄວາມສ່ຽງຍັງຄົງຢູ່
ຫຼັງຈາກໄດ້ຮັບບົດລາຍງານຂອງ Bargury, OpenAI ໄດ້ປະຕິບັດມາດຕະການຫຼຸດຜ່ອນຢ່າງໄວວາ. Andy Wen, ຜູ້ ອຳ ນວຍການອາວຸໂສຂອງການຄຸ້ມຄອງຜະລິດຕະພັນຄວາມປອດໄພຂອງ Google Workspace ກ່າວວ່າ "ມັນເປັນສິ່ງສໍາຄັນທີ່ຈະພັດທະນາການປ້ອງກັນທີ່ແຂງແຮງຕໍ່ກັບການໂຈມຕີດ້ວຍການສັກຢາ malware ຢ່າງໄວວາ".
ເຖິງແມ່ນວ່າມີການ patched, ເຫດການດັ່ງກ່າວຊີ້ໃຫ້ເຫັນເຖິງຄວາມສ່ຽງທີ່ອາດຈະເກີດຂື້ນໃນການເຊື່ອມຕໍ່ຕົວແບບພາສາຂະຫນາດໃຫຍ່ (LLMs) ກັບລະບົບພາຍນອກ. ເມື່ອ AI ກາຍເປັນການລວມເຂົ້າກັນຢ່າງເລິກເຊິ່ງໃນຊີວິດ ແລະການເຮັດວຽກຂອງພວກເຮົາ, ພື້ນທີ່ການໂຈມຕີທີ່ແຮກເກີສາມາດຂຸດຄົ້ນໄດ້ກໍ່ຂະຫຍາຍອອກໄປ.
ຜູ້ຊ່ຽວຊານເຕືອນວ່າ ການສັກຢາທັນທີທາງອ້ອມ ສາມາດກາຍເປັນໄພຂົ່ມຂູ່ທີ່ຮ້າຍແຮງ, ເຮັດໃຫ້ຜູ້ໂຈມຕີສາມາດຄວບຄຸມລະບົບ smart ຫຼາຍ, ຈາກເຮືອນ smart ກັບໂຄງສ້າງພື້ນຖານວິສາຫະກິດ.
"ການເຊື່ອມຕໍ່ LLM ກັບແຫຼ່ງຂໍ້ມູນພາຍນອກແມ່ນມີອໍານາດ, ແຕ່ເຊັ່ນດຽວກັນກັບກໍລະນີຂອງ AI, ພະລັງງານຫຼາຍແມ່ນມີຄວາມສ່ຽງຫຼາຍ," Bargury ສະຫຼຸບ.
ທີ່ມາ: https://dantri.com.vn/cong-nghe/canh-bao-lo-du-lieu-luu-tru-tren-google-drive-thong-qua-chatgpt-20250807155706949.htm
(0)