ຫຼັງຈາກເຫດການທີ່ Deloitte ຕ້ອງໄດ້ອອກບົດລາຍງານມູນຄ່າ 440,000 ໂດລາຕໍ່ ລັດຖະບານ ອົດສະຕຣາລີຄືນໃໝ່ ເນື່ອງຈາກຄວາມຜິດພາດທີ່ຮ້າຍແຮງຂອງ AI, ຄູ່ແຂ່ງໃນກຸ່ມ "Big 4" — EY, KPMG, PwC, ແລະ Boston Consulting Group (BCG) — ໄດ້ຢືນຢັນຢ່າງໄວວາວ່າພວກເຂົາມີຂະບວນການຄວບຄຸມທີ່ເຂັ້ມງວດເພື່ອຫຼີກເວັ້ນຄວາມຜິດພາດທີ່ຄ້າຍຄືກັນ.

ປັດຈຸບັນ Deloitte ກຳລັງປະເຊີນກັບຄວາມກົດດັນຢ່າງຫຼວງຫຼາຍຫຼັງຈາກບົດລາຍງານຕົ້ນສະບັບມີການອ້າງອີງທີ່ສົມມຸດຂຶ້ນສາມສະບັບ ແລະ ຄຳເວົ້າທີ່ປອມແປງຈາກຄຳຕັດສິນຂອງສານລັດຖະບານກາງ. ສະບັບທີ່ໄດ້ຮັບການປັບປຸງໄດ້ລຶບການອ້າງອີງທີ່ບໍ່ຖືກຕ້ອງຫຼາຍກວ່າສິບສອງສະບັບ ແລະ ແກ້ໄຂບັນນານຸກົມ, ເຖິງແມ່ນວ່າຄຳແນະນຳຍັງຄົງບໍ່ປ່ຽນແປງ.

ເຫດການດັ່ງກ່າວໄດ້ດຶງດູດຄວາມສົນໃຈຈາກສາກົນ, ກາຍເປັນຕົວຢ່າງທີ່ດີຂອງ "ພາບຫຼອນ" - ບ່ອນທີ່ AI ປະດິດຂໍ້ມູນທີ່ເບິ່ງຄືວ່າເປັນຄວາມຈິງ. ຄວາມຄິດເຫັນຂອງປະຊາຊົນ ແລະ ຜູ້ຊ່ຽວຊານກຳລັງຮຽກຮ້ອງໃຫ້ລັດຖະບານຂອງ ນາຍົກລັດຖະມົນຕີ Anthony Albanese ຮຽກຮ້ອງໃຫ້ທີ່ປຶກສາເປີດເຜີຍເມື່ອພວກເຂົາໃຊ້ AI ໃນສັນຍາຂອງລັດຖະບານ.

ບໍລິສັດໃຫຍ່ 4 ແຫ່ງກຳລັງແຂ່ງຂັນກັນເພື່ອພິສູດວ່າພວກເຂົາກຳລັງໃຊ້ AI ຢ່າງມີຄວາມຮັບຜິດຊອບ.

EY ຢືນຢັນວ່າຜົນໄດ້ຮັບທັງໝົດທີ່ສ້າງຂຶ້ນໂດຍ AI ຕ້ອງໄດ້ຮັບການກວດສອບຢ່າງລະອຽດໂດຍພະນັກງານກ່ອນການນຳໃຊ້. KPMG ກ່າວວ່າມັນມີ "AI Trust Framework" ແລະ "AI Registry" ທີ່ເປີດເຜີຍຕໍ່ສາທາລະນະ ເຊິ່ງລະບຸລາຍລະອຽດກ່ຽວກັບເຄື່ອງມືທີ່ໃຊ້ໃນການບໍລິການຂອງຕົນ ລວມທັງກັບລູກຄ້າຂອງລັດຖະບານ.

BCG ເນັ້ນໜັກວ່າຜະລິດຕະພັນທີ່ປຶກສາທັງໝົດແມ່ນຜ່ານ "ການກວດສອບຜູ້ນຳຢ່າງເຂັ້ມງວດ", ໃນຂະນະທີ່ PwC ເນັ້ນໜັກເຖິງການຍຶດໝັ້ນຫຼັກການ "ມະນຸດໃນວົງຈອນ" - ວ່າມະນຸດມີຄວາມຮັບຜິດຊອບສຸດທ້າຍຕໍ່ຜະລິດຕະພັນທີ່ກ່ຽວຂ້ອງກັບ AI.

ໃນທາງກັບກັນ, Deloitte ແລະ McKinsey - ສອງບໍລິສັດທີ່ມັກອວດອ້າງກ່ຽວກັບຄວາມສາມາດຂອງ AI ຂອງເຂົາເຈົ້າ - ປະຕິເສດທີ່ຈະໃຫ້ຄວາມເຫັນ. Deloitte ໄດ້ຕົກລົງທີ່ຈະຈ່າຍຄືນບາງສ່ວນໃຫ້ແກ່ກະຊວງການຈ້າງງານ ແລະ ການພົວພັນແຮງງານຂອງອົດສະຕຣາລີ.

ເດລອຍທ໌ ອາຟຣ
Deloitte ກຳລັງຕົກຢູ່ໃນບັນຫາອະນາຈານຍ້ອນ AI "ປະດິດຂໍ້ມູນ" ໃນການຂຽນລາຍງານ. ຮູບພາບ: AFR

ໃນການພິຈາລະນາຄະດີຂອງສະພາສູງ, ທ່ານ Gordon de Brouwer, ຫົວໜ້າກົມບໍລິການສາທາລະນະອົດສະຕຣາລີ, ໄດ້ເນັ້ນໜັກວ່າ: "AI ບໍ່ຮັບຜິດຊອບຕໍ່ວຽກງານຂອງທ່ານ. ທ່ານເປັນຜູ້ຮັບຜິດຊອບ."

ສະມາຊິກສະພາສູງ Barbara Pocock ຈາກພັກ Greens ກຳລັງຮຽກຮ້ອງໃຫ້ລັດຖະບານຮຽກຮ້ອງໃຫ້ບໍລິສັດທີ່ປຶກສາເປີດເຜີຍການນຳໃຊ້ AI ຂອງເຂົາເຈົ້າຕໍ່ສາທາລະນະ ແລະ ກວດສອບເນື້ອຫາທັງໝົດທີ່ສ້າງຂຶ້ນໂດຍ AI. ນາງໄດ້ວິພາກວິຈານວ່າ: “ນີ້ບໍ່ແມ່ນພຽງແຕ່ຄວາມລະເລີຍທຽມ, ມັນເປັນຄວາມລະເລີຍໂດຍເຈດຕະນາ... ວຽກງານຂອງ Deloitte ບໍ່ໄດ້ຕອບສະໜອງມາດຕະຖານຂອງການສອບເສັງວິທະຍາໄລປີໜຶ່ງ... ຖ້າຜູ້ຮັບເໝົາຂອງລັດຖະບານຈະຈ້າງ AI ເພື່ອເຮັດວຽກຂອງເຂົາເຈົ້າ, ແລ້ວມັນແນ່ນອນວ່າຕ້ອງມີການກວດສອບ. ນັ້ນບໍ່ແມ່ນຄວາມຕ້ອງການທີ່ບໍ່ສົມເຫດສົມຜົນ.”

ທ່ານນາງ Pocock ໄດ້ນຳສະເໜີຮ່າງກົດໝາຍທີ່ຫ້າມຜູ້ຮັບເໝົາທີ່ບໍ່ມີຈັນຍາບັນຈາກການຮັບສັນຍາຂອງລັດຖະບານເປັນເວລາຫ້າປີ ແລະ ຮຽກຮ້ອງໃຫ້ມີເງິນຄືນເຕັມຈຳນວນຈາກ Deloitte.

AI ຊ່ວຍເຫຼືອ, ແຕ່ບໍ່ໄດ້ທົດແທນມະນຸດ.

ບໍລິສັດທີ່ປຶກສາຂະໜາດນ້ອຍກວ່າກໍ່ໄດ້ເວົ້າອອກມາຢ່າງວ່ອງໄວເພື່ອເຮັດໃຫ້ລູກຄ້າໝັ້ນໃຈ. ທ່ານ David Gumley, ຜູ້ອຳນວຍການຂອງ ADAPTOVATE, ກ່າວວ່າພວກເຂົາກຳລັງໃຊ້ AI ເພື່ອປັບປຸງປະສິດທິພາບ, ແຕ່ມັນຈະບໍ່ສາມາດທົດແທນຄວາມຊ່ຽວຊານຂອງມະນຸດໄດ້.

ທີ່ປຶກສາອີກຄົນໜຶ່ງ, Lisa Carlin—ຜູ້ທີ່ດຳເນີນງານບໍລິສັດ The Turbochargers ທີ່ມີສະມາຊິກພຽງຄົນດຽວ—ໂຕ້ຖຽງວ່າບໍລິສັດທີ່ປຶກສາຕ້ອງການນະໂຍບາຍທີ່ໂປ່ງໃສກ່ຽວກັບການນຳໃຊ້ AI, ໂດຍອະທິບາຍຢ່າງຊັດເຈນວ່າເຕັກໂນໂລຢີດັ່ງກ່າວຖືກນຳໃຊ້ໃນວຽກງານຂອງເຂົາເຈົ້າແນວໃດ, ແຕ່ບໍ່ໄດ້ເປີດເຜີຍລາຍລະອຽດກ່ຽວກັບເຕັກໂນໂລຢີທີ່ນຳໃຊ້.

“ປະຈຸບັນ AI ແມ່ນສ່ວນໜຶ່ງຂອງເຄື່ອງມືທຸລະກິດມາດຕະຖານ, ເຊັ່ນ Excel, ແຕ່ບໍລິສັດຕ່າງໆຍັງຄົງຮັບຜິດຊອບຢ່າງເຕັມທີ່ຕໍ່ການຄຸ້ມຄອງຄວາມສ່ຽງ,” Carlin ກ່າວ. “ຄວາມໂປ່ງໃສຄວນຈະຢູ່ໃນລະດັບນະໂຍບາຍ, ບໍ່ແມ່ນຢູ່ໃນທຸກໆບົດລາຍງານ, ເພາະວ່າສິ່ງທີ່ລູກຄ້າຕ້ອງການແມ່ນຄວາມໝັ້ນໃຈວ່າບໍລິສັດມີການຄວບຄຸມທີ່ເຂັ້ມແຂງ, ບໍ່ແມ່ນປ້າຍເຕືອນຢູ່ໃນທຸກໆໜ້າ.”

ຄາລິນ ໃຫ້ຄໍາແນະນໍາລູກຄ້າບໍລິສັດກ່ຽວກັບຍຸດທະສາດ ແລະ ແອັບພລິເຄຊັນ AI. ນາງເນັ້ນໜັກວ່າທຸກລາຍລະອຽດໃນບົດລາຍງານຕ້ອງໄດ້ຮັບການກວດສອບຢ່າງລະມັດລະວັງກ່ອນທີ່ຈະສົ່ງໄປຫາລູກຄ້າ, ບໍ່ວ່າເນື້ອຫາຈະຖືກສ້າງຂຶ້ນມາແນວໃດ.

"ບໍລິສັດຕ່າງໆຕ້ອງການຂະບວນການຮັບປະກັນຄຸນນະພາບຂອງຕົນເອງສຳລັບ AI ແລະ ການປະເມີນຄວາມສ່ຽງທີ່ຊັດເຈນ," ນາງກ່າວຕື່ມ. "ບໍ່ມີຂໍ້ແກ້ຕົວຂອງ 'AI-made'. ທີ່ປຶກສາຕ້ອງຮັບຜິດຊອບຕໍ່ຜະລິດຕະພັນຂອງເຂົາເຈົ້າ, ຄືກັນກັບວຽກງານຂອງນັກສຶກສາຝຶກງານ."

(ອີງຕາມ AFR)

ແຫຼ່ງຂໍ້ມູນ: https://vietnamnet.vn/4-ong-lon-kiem-toan-len-tieng-sau-su-co-ai-nghiem-trong-tai-deloitte-2451266.html