SGGPO
ຜູ້ຊ່ຽວຊານ Kaspersky ໄດ້ແບ່ງປັນການວິເຄາະຂອງພວກເຂົາກ່ຽວກັບຜົນສະທ້ອນທີ່ເປັນໄປໄດ້ຂອງ Artificial Intelligence (AI), ໂດຍສະເພາະແມ່ນຄວາມສ່ຽງທາງດ້ານຈິດໃຈທີ່ເປັນໄປໄດ້ຂອງເຕັກໂນໂລຢີນີ້.
ທ່ານ Vitaly Kamluk ແບ່ງປັນກ່ຽວກັບ AI |
Vitaly Kamluk, ຜູ້ອໍານວຍການຂອງທີມງານຄົ້ນຄ້ວາແລະການວິເຄາະທົ່ວໂລກຂອງ Kaspersky (GReAT) ອາຊີ ປາຊີຟິກ , ເປີດເຜີຍວ່າໃນເວລາທີ່ອາຊະຍາກໍາທາງອິນເຕີເນັດໃຊ້ AI ເພື່ອກະທໍາອາຊະຍາກໍາ, ພວກເຂົາເຈົ້າອາດຈະຕໍານິຕິຕຽນເຕັກໂນໂລຢີແລະຮູ້ສຶກວ່າມີຄວາມຮັບຜິດຊອບຫນ້ອຍຕໍ່ຜົນສະທ້ອນຂອງການໂຈມຕີທາງອິນເຕີເນັດ.
"ນອກ ເໜືອ ໄປຈາກໄພຂົ່ມຂູ່ດ້ານເຕັກໂນໂລຢີທີ່ເກີດຂື້ນໂດຍ AI, ຍັງມີໄພຂົ່ມຂູ່ທາງຈິດໃຈທີ່ອາດຈະເກີດຂື້ນ. ໂຣກທາງຈິດວິທະຍາທີ່ພົບເລື້ອຍໃນບັນດາຜູ້ກໍ່ອາຊະຍາ ກຳ cyber ຖືກເອີ້ນວ່າ 'ໂຣກຫລີກລ້ຽງອາດຊະຍາ ກຳ". ເບິ່ງ,” Kamluk ອະທິບາຍ.
ຜົນຂ້າງຄຽງທາງຈິດໃຈອີກອັນຫນຶ່ງຂອງ AI ທີ່ສາມາດສົ່ງຜົນກະທົບຕໍ່ທີມງານຄວາມປອດໄພ IT ແມ່ນ "ການມອບຫມາຍຄວາມຮັບຜິດຊອບ." ນີ້ເກີດຂື້ນໃນເວລາທີ່ຂະບວນການແລະເຄື່ອງມືຄວາມປອດໄພທາງອິນເຕີເນັດຫຼາຍຂື້ນແມ່ນອັດຕະໂນມັດແລະຖືກມອບຫມາຍໃຫ້ເຄືອຂ່າຍ neural ປອມ, ມະນຸດອາດຈະຮູ້ສຶກວ່າມີຄວາມຮັບຜິດຊອບຫນ້ອຍຖ້າການໂຈມຕີທາງອິນເຕີເນັດເກີດຂື້ນ, ໂດຍສະເພາະໃນສະພາບແວດລ້ອມຂອງບໍລິສັດ.
"ດ້ວຍການພັດທະນາຂອງ AI, ພວກເຮົາໄດ້ເຫັນຄວາມກ້າວຫນ້າໃນເຕັກໂນໂລຢີທີ່ສາມາດສັງເຄາະເນື້ອຫາທີ່ຄ້າຍຄືກັນກັບສິ່ງທີ່ມະນຸດເຮັດ: ຈາກຮູບພາບໄປສູ່ສຽງ, ວິດີໂອ ເລິກລັບແລະແມ້ກະທັ້ງການສົນທະນາຂໍ້ຄວາມທີ່ແຍກອອກຈາກມະນຸດ. ເຊັ່ນດຽວກັນກັບຄວາມກ້າວຫນ້າທາງດ້ານເຕັກໂນໂລຢີທີ່ສຸດ, AI ເປັນດາບສອງຄົມ. ພວກເຮົາສາມາດນໍາໃຊ້ມັນໃຫ້ເປັນປະໂຫຍດຂອງພວກເຮົາສະເຫມີ ຕາບໃດທີ່ພວກເຮົາຮູ້ວິທີການກໍານົດເຄື່ອງມືທີ່ປອດໄພ, Kamlugent.
ທີ່ມາ
(0)