SGGPO
Kaspersky ນໍາສະເຫນີຫຼັກການດ້ານຈັນຍາບັນສໍາລັບການນໍາໃຊ້ປັນຍາປະດິດ (AI) ຫຼືການຮຽນຮູ້ເຄື່ອງຈັກ (ML) ໃນການພັດທະນາແລະການນໍາໃຊ້ລະບົບຂອງບໍລິສັດເພື່ອເສີມຂະຫຍາຍຄໍາຫມັ້ນສັນຍາຂອງຕົນໃນການພັດທະນາເຕັກໂນໂລຢີຢ່າງມີຄວາມຮັບຜິດຊອບແລະໂປ່ງໃສ.
Kaspersky ໄດ້ໃຊ້ ML algorithms - ຊຸດຍ່ອຍຂອງ AI - ໃນການແກ້ໄຂວິສາຫະກິດຂອງຕົນເປັນເວລາເກືອບ 20 ປີ. |
ໃນຂະນະທີ່ບົດບາດຂອງ AI algorithms ກາຍເປັນທີ່ໂດດເດັ່ນໃນການຮັກສາຄວາມປອດໄພທາງອິນເຕີເນັດ, ຫຼັກການໃນປື້ມສີຂາວຂອງ Kaspersky ອະທິບາຍວ່າທຸລະກິດສາມາດຮັບປະກັນຄວາມຫນ້າເຊື່ອຖືຂອງເຕັກໂນໂລຢີ AI ແລະແນະນໍາບໍລິສັດໃນອຸດສາຫະກໍາເພື່ອຫຼຸດຜ່ອນຄວາມສ່ຽງທີ່ກ່ຽວຂ້ອງກັບການນໍາໃຊ້ AI / ML algorithms.
ການປະສົມປະສານຂອງປັນຍາປະດິດແລະຄວາມຊ່ຽວຊານຂອງມະນຸດໄດ້ຊ່ວຍໃຫ້ການແກ້ໄຂ Kaspersky ກວດພົບແລະຕໍ່ສູ້ກັບໄພຂົ່ມຂູ່ດ້ານຄວາມປອດໄພທາງອິນເຕີເນັດຢ່າງກວ້າງຂວາງຢ່າງມີປະສິດທິພາບ. ML ມີບົດບາດສໍາຄັນໃນການກວດສອບໄພຂົ່ມຂູ່ອັດຕະໂນມັດແລະການກໍານົດຄວາມຜິດປົກກະຕິ, ໃນຂະນະທີ່ປັບປຸງຄວາມຖືກຕ້ອງຂອງການກວດສອບ malware.
ເພື່ອຊຸກຍູ້ການປະດິດສ້າງ, Kaspersky ໄດ້ພັດທະນາຫຼັກການດ້ານຈັນຍາບັນສໍາລັບການພັດທະນາແລະການນໍາໃຊ້ AI / ML, ເຊິ່ງຍັງໄດ້ແບ່ງປັນສາທາລະນະກັບອຸດສາຫະກໍາ ການທູດ ຫຼາຍຝ່າຍເພື່ອຮັບປະກັນວ່າ AI ຖືກນໍາໃຊ້ຢ່າງມີຈັນຍາບັນເພື່ອສ້າງໂລກທີ່ດີກວ່າ.
ຫຼັກການຄວາມໂປ່ງໃສສະທ້ອນເຖິງຄວາມເຊື່ອອັນແຮງກ້າຂອງ Kaspersky ທີ່ບໍລິສັດຄວນແຈ້ງໃຫ້ລູກຄ້າຂອງເຂົາເຈົ້າຮູ້ກ່ຽວກັບເຕັກໂນໂລຊີ AI/ML ທີ່ໃຊ້ໃນຜະລິດຕະພັນ ແລະການບໍລິການຂອງເຂົາເຈົ້າ. Kaspersky ປະຕິບັດຕາມຫຼັກການນີ້ໂດຍການພັດທະນາລະບົບ AI/ML ທີ່ງ່າຍຕໍ່ການໃຊ້ເທົ່າທີ່ເປັນໄປໄດ້, ແບ່ງປັນຂໍ້ມູນກັບພາກສ່ວນກ່ຽວຂ້ອງກ່ຽວກັບວິທີການແກ້ໄຂບັນຫາແລະວິທີການທີ່ Kaspersky ນໍາໃຊ້ເຕັກໂນໂລຢີ AI / MI.
ອີງຕາມການ Kaspersky, ເພື່ອອໍານວຍຄວາມສະດວກໃນການພັດທະນາແລະການນໍາໃຊ້ AI / ML, ຫຼັກການ 6 ຕໍ່ໄປນີ້ຕ້ອງໄດ້ຮັບການພິຈາລະນາ: ຄວາມໂປ່ງໃສ, ຄວາມປອດໄພ; ການຄວບຄຸມຂອງມະນຸດ; ຄວາມເປັນສ່ວນຕົວ; ຄໍາຫມັ້ນສັນຍາທີ່ຈະນໍາໃຊ້ສໍາລັບຈຸດປະສົງຄວາມປອດໄພ cyber; ການເປີດກວ້າງການສົນທະນາ ...
ທີ່ມາ
(0)