Vietnam.vn - Nền tảng quảng bá Việt Nam

Kaspersky ເຕືອນກ່ຽວກັບ cybercriminals ໃຊ້ Dark AI ເພື່ອໂຈມຕີ

ວັນທີ 15 ສິງຫາ, ບໍລິສັດຮັກສາຄວາມປອດໄພ Kaspersky ໄດ້ອອກຄຳເຕືອນວ່າ ການໂຈມຕີທາງອິນເຕີເນັດແມ່ນມີຄວາມຊັບຊ້ອນ ແລະ ກວດພົບໄດ້ຍາກຂຶ້ນ ເນື່ອງຈາກການເພີ່ມຂຶ້ນຂອງ Dark AI (ນຳໃຊ້ AI ເພື່ອຈຸດປະສົງທີ່ເປັນອັນຕະລາຍ, ລະເມີດກົດໝາຍ...) ໃນພາກພື້ນອາຊີປາຊີຟິກ (APAC).

Báo Sài Gòn Giải phóngBáo Sài Gòn Giải phóng15/08/2025

ຜູ້ຕາງຫນ້າບໍລິສັດຄວາມປອດໄພ Kaspersky ສະຫນອງຂໍ້ມູນກ່ຽວກັບອາຊະຍາກໍາທາງອິນເຕີເນັດທີ່ໃຊ້ Dark AI ເພື່ອໂຈມຕີ
ຜູ້ຕາງຫນ້າບໍລິສັດຄວາມປອດໄພ Kaspersky ສະຫນອງຂໍ້ມູນກ່ຽວກັບອາຊະຍາກໍາທາງອິນເຕີເນັດທີ່ໃຊ້ Dark AI ເພື່ອໂຈມຕີ

Dark AI ເຮັດວຽກຢູ່ນອກມາດຕະຖານຄວາມປອດໄພ, ມັກຈະອະນຸຍາດໃຫ້ມີພຶດຕິກໍາເຊັ່ນ: ການສໍ້ໂກງ, ການຫມູນໃຊ້, ການໂຈມຕີທາງອິນເຕີເນັດ, ຫຼືການຂຸດຄົ້ນຂໍ້ມູນໂດຍບໍ່ມີການຕິດຕາມຢ່າງໃກ້ຊິດ.

"ນັກສະແດງທີ່ບໍ່ດີຍັງໃຊ້ AI ເພື່ອເພີ່ມຄວາມສາມາດໃນການໂຈມຕີຂອງພວກເຂົາ. ການລ່ວງລະເມີດທົ່ວໄປທີ່ສຸດຂອງ AI ໃນມື້ນີ້ແມ່ນການປະກົດຕົວຂອງແບບຈໍາລອງ Black Hat GPT. ເຫຼົ່ານີ້ແມ່ນຕົວແບບ AI ທີ່ຖືກພັດທະນາໂດຍສະເພາະຫຼືດັດແປງເພື່ອຮັບໃຊ້ຈຸດປະສົງທີ່ຜິດກົດຫມາຍເຊັ່ນ: ການສ້າງ malware, ຮ່າງອີເມວ phishing, ການສ້າງສຽງແລະວິດີໂອເລິກໆ ... ", Sergey Lozhkin, ຫົວຫນ້າທີມຄົ້ນຄວ້າແລະການວິເຄາະທົ່ວໂລກຂອງອາຟຣິກາຕາເວັນອອກ (GReAT) ຂອງອາຟຣິກາຕາເວັນອອກ ( GReAT ) ກ່າວ. Kaspersky.

Black Hat GPTs ສາມາດມີຢູ່ເປັນຕົວແບບ AI ສ່ວນຕົວ ຫຼືເຄິ່ງສ່ວນຕົວເຕັມຮູບແບບ. ບາງຕົວຢ່າງທີ່ໂດດເດັ່ນລວມມີ WormGPT, DarkBard, FraudGPT, ແລະ Xanthorox… ທັງໝົດທີ່ອອກແບບມາເພື່ອອາດຊະຍາກຳທາງອິນເຕີເນັດ, ການສໍ້ໂກງ, ແລະລະບົບອັດຕະໂນມັດທີ່ເປັນອັນຕະລາຍ.

ທ່ານ Lozhkin ເປີດເຜີຍວ່າ ຕອນນີ້ຜູ້ຊ່ຽວຊານ Kaspersky ກໍາລັງບັນທຶກທ່າອ່ຽງທີ່ໜ້າເປັນຫ່ວງຍິ່ງຂຶ້ນ, ໂດຍກຸ່ມການໂຈມຕີທາງອິນເຕີເນັດຂອງລັດ ຫຼື ລັດຖະບານ ທີ່ໜູນຫຼັງໄດ້ເລີ່ມໃຊ້ຕົວແບບພາສາຂະໜາດໃຫຍ່ (LLMs) ໃນການໂຄສະນາຫາສຽງຂອງພວກເຂົາ.

"OpenAI ປະກາດເມື່ອບໍ່ດົນມານີ້ວ່າມັນໄດ້ຂັດຂວາງການໂຄສະນາທີ່ມີອິດທິພົນທີ່ລັບໆແລະການໂຈມຕີທາງອິນເຕີເນັດຫຼາຍກວ່າ 20 ທີ່ໃຊ້ເຄື່ອງມື AI ຂອງມັນ. ພວກເຮົາຈະເຫັນຜູ້ໂຈມຕີທີ່ສະຫລາດທີ່ກໍາລັງປະກອບອາວຸດ AI, ເປັນໄພຂົ່ມຂູ່ຕໍ່ລະບົບນິເວດທັງພາກລັດແລະເອກະຊົນ. ນີ້ແມ່ນແນວໂນ້ມທີ່ຫນ້າເປັນຫ່ວງທີ່ອົງການຈັດຕັ້ງທັງຫມົດຕ້ອງກຽມພ້ອມ, "Lozhkin ເວົ້າ.

ຜູ້ກະທຳທີ່ເປັນອັນຕະລາຍ ໄດ້ເລີ່ມຕົ້ນນຳໃຊ້ຄວາມສາມາດຂອງຕົວແບບການຮຽນຮູ້ເຄື່ອງຈັກຂະໜາດໃຫຍ່ (LLMs) ເພື່ອຫຼອກລວງຜູ້ເຄາະຮ້າຍ ແລະຂ້າມຂັ້ນຕອນຄວາມປອດໄພແບບທຳມະດາ, ອີງຕາມການລາຍງານຂອງ OpenAI. ພວກເຂົາສາມາດສ້າງຂໍ້ຄວາມປອມທີ່ຫນ້າເຊື່ອຖື, ສົ່ງຂໍ້ຄວາມໄປຫາຜູ້ຖືກເຄາະຮ້າຍເປັນຈໍານວນຫລາຍ, ແລະຜະລິດເນື້ອຫາໃນຫລາຍພາສາ.

ເພື່ອສ້າງຄວາມເຂັ້ມແຂງປ້ອງກັນໄພຂົ່ມຂູ່ຕໍ່ Dark AI, ຜູ້ຊ່ຽວຊານ Kaspersky ແນະນໍາວ່າ: ການນໍາໃຊ້ວິທີແກ້ໄຂຄວາມປອດໄພຮຸ່ນຕໍ່ໄປເຊັ່ນ Kaspersky Next ເພື່ອກວດພົບ malware ທີ່ສ້າງໂດຍ AI ແລະຄວບຄຸມຄວາມສ່ຽງໃນລະບົບຕ່ອງໂສ້ການສະຫນອງ. ນຳໃຊ້ເຄື່ອງມືສືບລັບໄພຂົ່ມຂູ່ແບບສົດໆເພື່ອຕິດຕາມການຂູດຮີດທີ່ຂັບເຄື່ອນດ້ວຍ AI. ການເສີມສ້າງການຄວບຄຸມການເຂົ້າເຖິງແລະການຝຶກອົບຮົມພະນັກງານເພື່ອຈໍາກັດ Shadow AI ແລະຄວາມສ່ຽງຂອງການຮົ່ວໄຫລຂອງຂໍ້ມູນ. ສ້າງຕັ້ງສູນປະຕິບັດງານຄວາມປອດໄພ (SOC) ເພື່ອຕິດຕາມໄພຂົ່ມຂູ່ແລະຕອບສະຫນອງຕໍ່ເຫດການຢ່າງໄວວາ.

ທີ່ມາ: https://www.sggp.org.vn/kaspersky-canh-bao-toi-pham-mang-dung-dark-ai-tan-cong-post808493.html


(0)

No data
No data

G-Dragon ໄດ້ລະເບີດຂຶ້ນກັບຜູ້ຊົມໃນລະຫວ່າງການສະແດງຂອງລາວຢູ່ຫວຽດນາມ
ແຟນເພດຍິງໃສ່ຊຸດແຕ່ງງານໄປຄອນເສີດ G-Dragon ທີ່ເມືອງ Hung Yen
ປະທັບໃຈກັບຄວາມງາມຂອງບ້ານ Lo Lo Chai ໃນລະດູການດອກໄມ້ buckwheat
​ເຂົ້າ​ໜຸ່ມ​ມີ​ໄຕ​ພວມ​ຈູດ​ໄຟ, ຟົດ​ຟື້ນ​ດ້ວຍ​ຈັງຫວະ​ການ​ຕຳ​ຂອງ​ສັດຕູ​ພືດ​ເພື່ອ​ປູກ​ພືດ​ໃໝ່.

ມໍລະດົກ

ຮູບ

ທຸລະກິດ

​ເຂົ້າ​ໜຸ່ມ​ມີ​ໄຕ​ພວມ​ຈູດ​ໄຟ, ຟົດ​ຟື້ນ​ດ້ວຍ​ຈັງຫວະ​ການ​ຕຳ​ຂອງ​ສັດຕູ​ພືດ​ເພື່ອ​ປູກ​ພືດ​ໃໝ່.

ເຫດການປະຈຸບັນ

ລະບົບການເມືອງ

ທ້ອງຖິ່ນ

ຜະລິດຕະພັນ