Vietnam.vn - Nền tảng quảng bá Việt Nam

ຄຳເຕືອນກ່ຽວກັບການຮົ່ວໄຫຼຂອງຂໍ້ມູນທີ່ເກັບໄວ້ໃນ Google Drive ຜ່ານ ChatGPT

(Dan Tri) - ນັກຄົ້ນຄວ້າຄວາມປອດໄພຫາກໍ່ຄົ້ນພົບຊ່ອງໂຫວ່ໃນຄຸນນະສົມບັດ Connectors ຂອງ OpenAI, ອະນຸຍາດໃຫ້ຄົນບໍ່ດີສາມາດສະກັດຂໍ້ມູນຈາກບັນຊີ Google Drive ໂດຍລັບໆຜ່ານ ChatGPT.

Báo Dân tríBáo Dân trí11/08/2025

Cảnh báo lộ dữ liệu lưu trữ trên Google Drive thông qua ChatGPT - 1

ເອກະສານທີ່ຕິດເຊື້ອສາມາດຮົ່ວຂໍ້ມູນໃນ Google Drive ຜ່ານ ChatGPT (ພາບ: Wired).

ຈຸດທີ່ຫນ້າເປັນຫ່ວງແມ່ນວ່າຊ່ອງໂຫວ່ນີ້ບໍ່ຕ້ອງການການດໍາເນີນການໃດໆຈາກຜູ້ໃຊ້, ຍົກສູງຄໍາເຕືອນໃຫມ່ກ່ຽວກັບຄວາມປອດໄພທາງອິນເຕີເນັດໃນສະພາບການຂອງຕົວແບບປັນຍາປະດິດ (AI) ທີ່ເຊື່ອມຕໍ່ຂໍ້ມູນສ່ວນບຸກຄົນເພີ່ມຂຶ້ນ.

ເອກະສານ "ເປັນພິດ" ນໍາໄປສູ່ການຮົ່ວໄຫລຂອງຂໍ້ມູນ

ໃນ​ກອງ​ປະ​ຊຸມ​ຄວາມ​ປອດ​ໄພ Black Hat ຢູ່ Las Vegas (ອາ​ເມລິ​ກາ) ວັນ​ທີ 6 ເດືອນ​ສິງ​ຫາ, ສອງ​ຜູ້​ຊ່ຽວ​ຊານ Michael Bargury ແລະ Tamir Ishay Sharbat ໄດ້​ສະ​ແດງ​ໃຫ້​ເຫັນ​ວິ​ທີ​ການ​ໂຈມ​ຕີ​ທີ່​ເອີ້ນ​ວ່າ AgentFlayer .

ການໂຈມຕີນີ້ໃຊ້ຊ່ອງໂຫວ່ຢູ່ໃນຕົວເຊື່ອມຕໍ່ – ຄຸນສົມບັດທີ່ເຊື່ອມຕໍ່ ChatGPT ກັບການບໍລິການພາຍນອກເຊັ່ນ Google Drive, Gmail ຫຼື Microsoft Calendar.

ທ່ານ Michael Bargury, CTO ຂອງບໍລິສັດຄວາມປອດໄພ Zenity ກ່າວວ່າ "ຜູ້ໃຊ້ບໍ່ຈໍາເປັນຕ້ອງເຮັດຫຍັງເພື່ອຖືກ hacked ຫຼືຂໍ້ມູນຂອງພວກເຂົາຮົ່ວໄຫລ.

ການ​ໂຈມ​ຕີ​ເລີ່ມ​ຕົ້ນ​ໂດຍ​ຜູ້​ໂຈມ​ຕີ​ໄດ້​ແບ່ງ​ປັນ​ເອ​ກະ​ສານ "ເປັນ​ພິດ" ກັບ Google Drive ຂອງ​ຜູ້​ເຄາະ​ຮ້າຍ. ເອກະສານປະກອບມີການກະຕຸ້ນເຕືອນທີ່ເປັນອັນຕະລາຍປະມານ 300 ຄໍາ, ຂຽນດ້ວຍຕົວອັກສອນສີຂາວຂະຫນາດ 1 - ເກືອບເບິ່ງບໍ່ເຫັນດ້ວຍຕາເປົ່າແຕ່ຍັງສາມາດອ່ານໄດ້ໂດຍຄອມພິວເຕີ.

ຢູ່ເທິງພື້ນຜິວ, ຂໍ້ຄວາມຖືກປອມຕົວເປັນບັນທຶກກອງປະຊຸມ. ໃນຄວາມເປັນຈິງ, ມັນມີຄໍາແນະນໍາສໍາລັບ ChatGPT ເພື່ອຊອກຫາແລະສະກັດລະຫັດ API ທີ່ລະອຽດອ່ອນຈາກບັນຊີ Google Drive ຂອງຜູ້ຖືກເຄາະຮ້າຍ.

ແທນທີ່ຈະສະຫຼຸບເນື້ອຫາຕາມທີ່ຜູ້ໃຊ້ຮ້ອງຂໍ, ການເຕືອນທີ່ເຊື່ອງໄວ້ນີ້ບັງຄັບໃຫ້ AI ສົ່ງລະຫັດ API ທີ່ມັນພົບໄປຫາເຄື່ອງແມ່ຂ່າຍພາຍນອກໂດຍຜ່ານການເຊື່ອມຕໍ່ Markdown. ຂໍ້ມູນຖືກສະກັດເປັນຮູບພາບ, ໃຫ້ເຄື່ອງແມ່ຂ່າຍສາມາດເກັບກໍາຂໍ້ມູນທັງຫມົດ.

OpenAI ໄດ້ແກ້ໄຂມັນ, ແຕ່ຄວາມສ່ຽງຍັງຄົງຢູ່

ຫຼັງຈາກໄດ້ຮັບບົດລາຍງານຂອງ Bargury, OpenAI ໄດ້ປະຕິບັດມາດຕະການຫຼຸດຜ່ອນຢ່າງໄວວາ. Andy Wen, ຜູ້ ອຳ ນວຍການອາວຸໂສຂອງການຄຸ້ມຄອງຜະລິດຕະພັນຄວາມປອດໄພຂອງ Google Workspace ກ່າວວ່າ "ມັນເປັນສິ່ງສໍາຄັນທີ່ຈະພັດທະນາການປ້ອງກັນທີ່ແຂງແຮງຕໍ່ກັບການໂຈມຕີດ້ວຍການສັກຢາ malware ຢ່າງໄວວາ".

ເຖິງແມ່ນວ່າມີການ patched, ເຫດການດັ່ງກ່າວຊີ້ໃຫ້ເຫັນເຖິງຄວາມສ່ຽງທີ່ອາດຈະເກີດຂື້ນໃນການເຊື່ອມຕໍ່ຕົວແບບພາສາຂະຫນາດໃຫຍ່ (LLMs) ກັບລະບົບພາຍນອກ. ເມື່ອ AI ກາຍເປັນການລວມເຂົ້າກັນຢ່າງເລິກເຊິ່ງໃນຊີວິດ ແລະການເຮັດວຽກຂອງພວກເຮົາ, ພື້ນທີ່ການໂຈມຕີທີ່ແຮກເກີສາມາດຂຸດຄົ້ນໄດ້ກໍ່ຂະຫຍາຍອອກໄປ.

ຜູ້ຊ່ຽວຊານເຕືອນວ່າ ການສັກຢາທັນທີທາງອ້ອມ ສາມາດກາຍເປັນໄພຂົ່ມຂູ່ທີ່ຮ້າຍແຮງ, ເຮັດໃຫ້ຜູ້ໂຈມຕີສາມາດຄວບຄຸມລະບົບ smart ຫຼາຍ, ຈາກເຮືອນ smart ກັບໂຄງສ້າງພື້ນຖານວິສາຫະກິດ.

"ການເຊື່ອມຕໍ່ LLM ກັບແຫຼ່ງຂໍ້ມູນພາຍນອກແມ່ນມີອໍານາດ, ແຕ່ເຊັ່ນດຽວກັນກັບກໍລະນີຂອງ AI, ພະລັງງານຫຼາຍແມ່ນມີຄວາມສ່ຽງຫຼາຍ," Bargury ສະຫຼຸບ.

ທີ່ມາ: https://dantri.com.vn/cong-nghe/canh-bao-lo-du-lieu-luu-tru-tren-google-drive-thong-qua-chatgpt-20250807155706949.htm


(0)

No data
No data

ນະຄອນ​ໂຮ່ຈິ​ມິນ: ຖະໜົນ​ໂຄມ​ໄຟ ​ເລືອງ​ງູ​ໂຮ່ ມີ​ສີສັນ​ພິ​ເສດ​ເພື່ອ​ຕ້ອນຮັບ​ບຸນ​ລະດູ​ໃບ​ໄມ້​ປົ່ງ.
ຮັກສາ​ຈິດ​ໃຈ​ບຸນ​ລະດູ​ໃບ​ໄມ້​ປົ່ງ​ຜ່ານ​ສີສັນ​ຂອງ​ຮູບ​ປັ້ນ
ຄົ້ນ​ພົບ​ໝູ່​ບ້ານ​ດຽວ​ຢູ່​ຫວຽດ​ນາມ ໃນ 50 ໝູ່​ບ້ານ​ທີ່​ງາມ​ທີ່​ສຸດ​ໃນ​ໂລກ
ເປັນຫຍັງໂຄມໄຟທຸງສີແດງກັບດາວສີເຫຼືອງຈຶ່ງເປັນທີ່ນິຍົມໃນປີນີ້?

ມໍລະດົກ

ຮູບ

ທຸລະກິດ

No videos available

ເຫດການປະຈຸບັນ

ລະບົບການເມືອງ

ທ້ອງຖິ່ນ

ຜະລິດຕະພັນ