หลังจากที่ Deloitte ต้องออกรายงานมูลค่า 440,000 เหรียญสหรัฐฯ ใหม่ให้กับ รัฐบาล ออสเตรเลียเนื่องจากข้อผิดพลาดร้ายแรงจากปัญญาประดิษฐ์ (AI) คู่แข่งในกลุ่ม "Big 4" ซึ่งรวมถึง EY, KPMG, PwC และ Boston Consulting Group (BCG) ต่างออกมาพูดอย่างรวดเร็วเพื่อยืนยันว่าพวกเขามีกระบวนการควบคุมที่เข้มงวดเพื่อหลีกเลี่ยงข้อผิดพลาดที่คล้ายคลึงกัน

ขณะนี้ Deloitte กำลังเผชิญกับแรงกดดันอย่างหนักหลังจากรายงานฉบับเดิมมีการอ้างอิงที่แต่งขึ้นสามรายการ และคำพูดที่แต่งขึ้นจากคำตัดสินของศาลรัฐบาลกลาง ฉบับปรับปรุงนี้ได้ตัดคำพูดที่ผิดพลาดออกไปกว่าสิบรายการ และแก้ไขบรรณานุกรม แม้ว่าคำแนะนำจะยังคงเหมือนเดิม

คดีนี้ได้รับความสนใจจากนานาชาติ จนกลายเป็นตัวอย่างทั่วไปของ “ภาพหลอน” ที่ AI “สร้าง” ข้อมูลขึ้นมาราวกับว่าเป็นของจริง ความคิดเห็นของสาธารณชนและผู้เชี่ยวชาญเรียกร้องให้รัฐบาลของ นายกรัฐมนตรี แอนโทนี อัลบานีส บังคับให้ที่ปรึกษาเปิดเผยข้อมูลเมื่อมีการใช้ AI ในสัญญากับรัฐ

บิ๊กโฟร์แข่งกันพิสูจน์ "ใช้ AI อย่างมีความรับผิดชอบ"

EY ยืนยันว่าผลลัพธ์ทั้งหมดที่สร้างโดย AI ต้องได้รับการตรวจสอบอย่างละเอียดโดยพนักงานก่อนนำไปใช้งาน KPMG ระบุว่ามี “AI Trust Framework” และ “AI Registry” สาธารณะสำหรับเครื่องมือที่ใช้ในบริการต่างๆ รวมถึงลูกค้าภาครัฐ

BCG เน้นย้ำว่าผลิตภัณฑ์ที่ปรึกษาทั้งหมดจะต้องผ่าน "การตรวจสอบจากผู้นำอย่างเข้มงวด" ในขณะที่ PwC เน้นย้ำว่าบริษัทปฏิบัติตามหลักการ "มนุษย์อยู่ในวงจร" นั่นคือ มนุษย์คือผู้รับผิดชอบสูงสุดสำหรับผลิตภัณฑ์ที่เกี่ยวข้องกับ AI

Deloitte และ McKinsey สองบริษัทที่มักอวดอ้างความสามารถด้าน AI ของตน ปฏิเสธที่จะแสดงความคิดเห็น Deloitte ตกลงที่จะชดเชยค่าใช้จ่ายบางส่วนให้กับกระทรวงการจ้างงานและความสัมพันธ์อุตสาหกรรมของออสเตรเลีย

ดีลอยท์ เอเอฟอาร์
Deloitte ตกเป็นข่าวอื้อฉาวกรณี AI "สร้างข้อมูล" ขณะเขียนรายงาน ภาพ: AFR

ในการพิจารณาของวุฒิสภา กอร์ดอน เดอ บราวเวอร์ หัวหน้าฝ่ายบริการสาธารณะของออสเตรเลีย เน้นย้ำว่า “AI ไม่ได้รับผิดชอบต่องานของคุณ คุณต่างหากที่ต้องรับผิดชอบ”

วุฒิสมาชิกพรรคกรีน บาร์บารา โพค็อก เรียกร้องให้รัฐบาลบังคับให้ผู้รับเหมาเปิดเผยการใช้งาน AI ต่อสาธารณะและตรวจสอบเนื้อหาทั้งหมดที่สร้างจาก AI “นี่ไม่ใช่แค่ความประมาทเลินเล่อที่ถูกสร้างขึ้นมา แต่มันเป็นความประมาทเลินเล่อโดยเจตนา... งานของ Deloitte ไม่ได้มาตรฐานเท่ากับการสอบเข้ามหาวิทยาลัยปีแรก... หากผู้รับเหมาที่ได้รับการว่าจ้างให้ทำงานให้กับรัฐบาลยังคงจ้างงาน AI จากภายนอก จำเป็นต้องมีการตรวจสอบ ซึ่งไม่ใช่เรื่องที่มากเกินไป” เธอกล่าว

นางสาวโพค็อกได้เสนอร่างกฎหมายเพื่อห้ามผู้รับเหมาที่ถูกพบว่ามีพฤติกรรมที่ผิดจริยธรรมจากการทำสัญญากับรัฐบาลเป็นเวลา 5 ปี และเรียกร้องให้ Deloitte คืนเงินเต็มจำนวน

AI สนับสนุน ไม่ใช่แทนที่มนุษย์

บริษัทที่ปรึกษาขนาดเล็กก็รีบสร้างความมั่นใจให้กับลูกค้าเช่นกัน เดวิด กัมลีย์ ซีอีโอของ ADAPTOVATE กล่าวว่าพวกเขากำลังใช้ AI เพื่อเพิ่มประสิทธิภาพ แต่ AI จะไม่มีทางแทนที่ความเชี่ยวชาญของมนุษย์ได้

ลิซ่า คาร์ลิน ที่ปรึกษาอีกคนหนึ่งซึ่งบริหารบริษัท The Turbochargers ซึ่งเป็นบริษัทเอกชน กล่าวว่าบริษัทที่ปรึกษาจำเป็นต้องมีนโยบายสาธารณะเกี่ยวกับการใช้ AI โดยต้องอธิบายว่าเทคโนโลยีดังกล่าวถูกนำไปใช้ในงานของตนอย่างไร แต่ไม่จำเป็นต้องเปิดเผยรายละเอียดของเทคโนโลยีที่ใช้

“ปัจจุบัน AI เป็นส่วนหนึ่งของเครื่องมือทางธุรกิจมาตรฐาน เช่น Excel แต่บริษัทยังคงมีความรับผิดชอบอย่างเต็มที่ในการบริหารความเสี่ยง” คาร์ลินกล่าว “ความโปร่งใสควรอยู่ที่ระดับนโยบาย ไม่ใช่ในทุกรายงาน เพราะสิ่งที่ลูกค้าต้องการคือความเชื่อมั่นว่าบริษัทมีการควบคุมที่เข้มงวด ไม่ใช่มีบรรทัดคำเตือนในทุกหน้า”

คาร์ลินให้คำแนะนำแก่ลูกค้าองค์กรเกี่ยวกับกลยุทธ์และการนำ AI ไปใช้ และเธอยังเน้นย้ำว่าทุกรายละเอียดในรายงาน ไม่ว่าจะสร้างขึ้นมาอย่างไร ควรได้รับการตรวจสอบอย่างรอบคอบก่อนที่จะส่งให้ลูกค้า

“บริษัทต่างๆ จำเป็นต้องมีกระบวนการรับรองคุณภาพสำหรับ AI ของตนเอง และมีการประเมินความเสี่ยงที่ชัดเจน” เธอกล่าวเสริม “ไม่มีข้อแก้ตัวใดๆ สำหรับคำว่า ‘AI สร้างขึ้น’ ที่ปรึกษาจำเป็นต้องรับผิดชอบต่องานของตนเอง เช่นเดียวกับที่พวกเขาจะรับผิดชอบงานของนักศึกษาฝึกงาน”

(อ้างอิงจาก AFR)

ที่มา: https://vietnamnet.vn/4-ong-lon-kiem-toan-len-tieng-sau-su-co-ai-nghiem-trong-tai-deloitte-2451266.html