ຫຼັງຈາກ Deloitte ຕ້ອງໄດ້ອອກບົດລາຍງານໃຫມ່ $ 440,000 ກັບ ລັດຖະບານ ອົດສະຕາລີຍ້ອນຄວາມຜິດພາດທີ່ຮ້າຍແຮງຈາກປັນຍາປະດິດ (AI), ຄູ່ແຂ່ງໃນກຸ່ມ "Big 4" ລວມທັງ EY, KPMG, PwC ແລະ Boston Consulting Group (BCG) ໄດ້ເວົ້າຢ່າງໄວວາເພື່ອຢືນຢັນວ່າພວກເຂົາມີຂະບວນການຄວບຄຸມຢ່າງເຂັ້ມງວດເພື່ອຫຼີກເວັ້ນຄວາມຜິດພາດທີ່ຄ້າຍຄືກັນ.

ໃນປັດຈຸບັນ Deloitte ກໍາລັງປະເຊີນກັບຄວາມກົດດັນທີ່ຮຸນແຮງຫຼັງຈາກບົດລາຍງານຕົ້ນສະບັບປະກອບດ້ວຍສາມຂໍ້ອ້າງທີ່ປອມແປງແລະຄໍາເວົ້າທີ່ສ້າງຂຶ້ນຈາກຄໍາຕັດສິນຂອງສານລັດຖະບານກາງ. ສະບັບປັບປຸງຈະເອົາຄໍາເວົ້າທີ່ຜິດພາດຫຼາຍກວ່າຫນຶ່ງສິບຄໍາແລະແກ້ໄຂບັນນານຸກົມ, ເຖິງແມ່ນວ່າຄໍາແນະນໍາຍັງຄົງຢູ່ຄືກັນ.

ກໍລະນີດັ່ງກ່າວໄດ້ດຶງດູດຄວາມສົນໃຈຈາກສາກົນ, ກາຍເປັນຕົວຢ່າງປົກກະຕິຂອງ "ຄວາມແປກໃຈ" - ເມື່ອ AI "ສ້າງ" ຂໍ້ມູນຄືກັບວ່າມັນເປັນຈິງ. ຄວາມຄິດເຫັນຂອງປະຊາຊົນແລະຜູ້ຊ່ຽວຊານແມ່ນຮຽກຮ້ອງໃຫ້ລັດຖະບານຂອງ ນາຍົກລັດ ຖະມົນຕີ Anthony Albanese ບັງຄັບໃຫ້ທີ່ປຶກສາເປີດເຜີຍໃນເວລາທີ່ພວກເຂົາໃຊ້ AI ໃນສັນຍາຂອງລັດ.

ການແຂ່ງຂັນໃຫຍ່ 4 ເພື່ອພິສູດວ່າພວກເຂົາ "ໃຊ້ AI ຢ່າງມີຄວາມຮັບຜິດຊອບ"

EY ຢືນຢັນວ່າຜົນໄດ້ຮັບທີ່ສ້າງໂດຍ AI ທັງຫມົດຕ້ອງໄດ້ຮັບການທົບທວນຢ່າງລະອຽດໂດຍພະນັກງານກ່ອນທີ່ຈະຖືກນໍາໃຊ້. KPMG ກ່າວວ່າມັນມີ "AI Trust Framework" ແລະ "AI Registry" ສາທາລະນະຂອງເຄື່ອງມືທີ່ມັນໃຊ້ໃນການບໍລິການຂອງຕົນ, ລວມທັງລູກຄ້າຂອງລັດຖະບານ.

BCG ເນັ້ນຫນັກວ່າຜະລິດຕະພັນທີ່ປຶກສາທັງຫມົດໄດ້ຮັບ "ການກວດສອບຄວາມເປັນຜູ້ນໍາພາຢ່າງເຂັ້ມງວດ," ໃນຂະນະທີ່ PwC ເນັ້ນຫນັກວ່າມັນປະຕິບັດຕາມຫຼັກການ "ມະນຸດຢູ່ໃນວົງຈອນ" - ມະນຸດສະເຫມີມີຄວາມຮັບຜິດຊອບຕໍ່ຜະລິດຕະພັນທີ່ກ່ຽວຂ້ອງກັບ AI.

Deloitte ແລະ McKinsey, ສອງບໍລິສັດທີ່ມັກເວົ້າໂອ້ອວດກ່ຽວກັບຄວາມສາມາດ AI ຂອງເຂົາເຈົ້າ, ປະຕິເສດຄໍາເຫັນ. Deloitte ໄດ້ຕົກລົງທີ່ຈະຈ່າຍຄືນຄ່າໃຊ້ຈ່າຍບາງຢ່າງໃຫ້ກັບພະແນກການຈ້າງງານແລະການພົວພັນອຸດສາຫະກໍາຂອງອົດສະຕາລີ.

deloitte afr
Deloitte ຈັບໄດ້ໃນເລື່ອງກະແຈກກະຈາຍກ່ຽວກັບ AI "ສ້າງຂໍ້ມູນ" ໃນເວລາທີ່ຂຽນບົດລາຍງານ. ຮູບພາບ: AFR

ໃນ​ການ​ພິ​ຈາ​ລະ​ນາ​ຂອງ​ສະ​ພາ​ສູງ, ທ່ານ Gordon de Brouwer, ຫົວ​ຫນ້າ​ບໍ​ລິ​ການ​ສາ​ທາ​ລະ​ນະ​ອົດ​ສະ​ຕາ​ລີ, ເນັ້ນ​ຫນັກ​ວ່າ: "AI ບໍ່​ໄດ້​ຮັບ​ຜິດ​ຊອບ​ສໍາ​ລັບ​ວຽກ​ງານ​ຂອງ​ທ່ານ, ທ່ານ​ມີ​ຄວາມ​ຮັບ​ຜິດ​ຊອບ."

ສະມາຊິກສະພາສູງຂອງ Greens Barbara Pocock ຮຽກຮ້ອງໃຫ້ລັດຖະບານບັງຄັບໃຫ້ຜູ້ຮັບເຫມົາເປີດເຜີຍການນໍາໃຊ້ AI ຂອງເຂົາເຈົ້າຢ່າງເປີດເຜີຍແລະກວດສອບເນື້ອຫາທີ່ສ້າງໂດຍ AI ທັງຫມົດ. "ນີ້ບໍ່ແມ່ນພຽງແຕ່ການລະເລີຍປອມ, ມັນເປັນການລະເລີຍໂດຍເຈດຕະນາ ... ວຽກງານຂອງ Deloitte ບໍ່ໄດ້ມາດຕະຖານຂອງການສອບເສັງມະຫາວິທະຍາໄລປີທໍາອິດ ... ຖ້າຜູ້ຮັບເຫມົາຈ້າງລັດຖະບານຈະສືບຕໍ່ອອກວຽກ AI, ມັນຈໍາເປັນຕ້ອງມີການກວດສອບ. ມັນບໍ່ແມ່ນສິ່ງທີ່ຕ້ອງການຫຼາຍ," ນາງເວົ້າ.

ນາງ Pocock ໄດ້ແນະນໍານິຕິກໍາເພື່ອຫ້າມຜູ້ຮັບເຫມົາທີ່ພົບເຫັນວ່າມີພຶດຕິກໍາທີ່ບໍ່ມີຈັນຍາບັນຈາກສັນຍາຂອງລັດຖະບານເປັນເວລາຫ້າປີແລະຮຽກຮ້ອງໃຫ້ສົ່ງເງິນຄືນຢ່າງເຕັມທີ່ຈາກ Deloitte.

AI ສະຫນັບສະຫນູນ, ບໍ່ແມ່ນການທົດແທນ, ມະນຸດ

ບໍລິສັດທີ່ປຶກສາຂະໜາດນ້ອຍຍັງເລັ່ງໃຫ້ລູກຄ້າໝັ້ນໃຈ. David Gumley, CEO ຂອງ ADAPTOVATE, ກ່າວວ່າພວກເຂົາກໍາລັງໃຊ້ AI ເພື່ອປັບປຸງປະສິດທິພາບ, ແຕ່ມັນຈະບໍ່ທົດແທນຄວາມຊໍານານຂອງມະນຸດ.

ທີ່ປຶກສາອີກຄົນຫນຶ່ງ, Lisa Carlin - ຜູ້ທີ່ດໍາເນີນການບໍລິສັດຫນຶ່ງຄົນດຽວ The Turbochargers - ກ່າວວ່າບໍລິສັດທີ່ປຶກສາຈໍາເປັນຕ້ອງມີນະໂຍບາຍສາທາລະນະກ່ຽວກັບການນໍາໃຊ້ AI, ອະທິບາຍວິທີການນໍາໃຊ້ເຕັກໂນໂລຢີໃນການເຮັດວຽກຂອງພວກເຂົາ, ແຕ່ບໍ່ຈໍາເປັນຕ້ອງເປີດເຜີຍລາຍລະອຽດຂອງເຕັກໂນໂລຢີທີ່ໃຊ້.

Carlin ກ່າວວ່າ "ດຽວນີ້ AI ເປັນສ່ວນຫນຶ່ງຂອງເຄື່ອງມືທຸລະກິດມາດຕະຖານເຊັ່ນ Excel, ແຕ່ບໍລິສັດຍັງມີຄວາມຮັບຜິດຊອບຢ່າງເຕັມທີ່ໃນການຄຸ້ມຄອງຄວາມສ່ຽງ," Carlin ເວົ້າ. "ຄວາມໂປ່ງໃສຄວນຈະຢູ່ໃນລະດັບນະໂຍບາຍ, ບໍ່ແມ່ນຢູ່ໃນທຸກໆບົດລາຍງານ, ເພາະວ່າສິ່ງທີ່ລູກຄ້າຕ້ອງການແມ່ນຄວາມຫມັ້ນໃຈວ່າບໍລິສັດມີການຄວບຄຸມທີ່ເຂັ້ມແຂງ, ບໍ່ແມ່ນການເຕືອນໄພໃນທຸກໆຫນ້າ."

Carlin ແນະນໍາລູກຄ້າຂອງບໍລິສັດກ່ຽວກັບຍຸດທະສາດ AI ແລະການປະຕິບັດ, ແລະນາງເນັ້ນຫນັກວ່າທຸກລາຍລະອຽດໃນບົດລາຍງານ, ບໍ່ວ່າຈະເປັນມັນຖືກສ້າງຂຶ້ນແນວໃດ, ຄວນໄດ້ຮັບການກວດກາຢ່າງລະມັດລະວັງກ່ອນທີ່ຈະຖືກສົ່ງໄປຫາລູກຄ້າ.

"ບໍລິສັດຈໍາເປັນຕ້ອງມີຂະບວນການຮັບປະກັນຄຸນນະພາບຂອງຕົນເອງສໍາລັບ AI ແລະການປະເມີນຄວາມສ່ຽງທີ່ຊັດເຈນ," ນາງກ່າວຕື່ມວ່າ. "ບໍ່ມີຂໍ້ແກ້ຕົວສໍາລັບ 'AI ສ້າງຂຶ້ນ'. ທີ່ປຶກສາຈໍາເປັນຕ້ອງມີຄວາມຮັບຜິດຊອບຕໍ່ການເຮັດວຽກຂອງເຂົາເຈົ້າ, ຄືກັນກັບພວກເຂົາຕ້ອງການສໍາລັບນັກຝຶກຫັດ."

(ອີງຕາມ AFR)

ທີ່ມາ: https://vietnamnet.vn/4-ong-lon-kiem-toan-len-tieng-sau-su-co-ai-nghiem-trong-tai-deloitte-2451266.html