
(ภาพ: LinkedIn)
Deloitte หนึ่งในบริษัทตรวจสอบบัญชี "Big Four" ของโลก ถูกกล่าวหาว่าใช้ปัญญาประดิษฐ์ (AI) เพื่อรวบรวมรายงานที่มีข้อมูลเท็จ เหตุการณ์นี้ไม่เพียงแต่ทำลายชื่อเสียงของบริษัทเท่านั้น แต่ยังก่อให้เกิดการถกเถียงระดับโลกเกี่ยวกับการใช้ AI อย่างมีความรับผิดชอบในสาขาที่ตั้งอยู่บนพื้นฐานของความซื่อสัตย์ ความถูกต้อง และความน่าเชื่อถือ
การ “ล้ม” ของผู้นำ
ข้อมูลจาก AP News (ตุลาคม 2568) ระบุว่า Deloitte Australia ตกลงที่จะคืนเงินส่วนหนึ่งตามมูลค่าสัญญาให้แก่ รัฐบาล ออสเตรเลียเป็นจำนวน 440,000 ดอลลาร์ออสเตรเลีย (เทียบเท่าประมาณ 290,000 ดอลลาร์สหรัฐ) หลังจากตรวจพบว่ารายงานที่ส่งไปยังกระทรวงแรงงานและความสัมพันธ์การจ้างงาน (DEWR) มีการอ้างอิงทางกฎหมายที่ไม่มีอยู่จริงและเอกสารวิชาการปลอม ต่อมา Deloitte ได้ตรวจสอบภายในและยืนยันว่าเนื้อหาบางส่วนถูกสร้างขึ้นโดยเครื่องมือ "Azure OpenAI" ซึ่งเป็นโมเดล AI ของ Microsoft
เหตุการณ์นี้ก่อให้เกิดปฏิกิริยาลูกโซ่ทันที ทำให้ผู้เชี่ยวชาญและหน่วยงานบริหารต่างออกมาเตือนพร้อมกันว่า เทคโนโลยีกำลังก้าวหน้าเร็วกว่ากรอบกฎหมายและขีดความสามารถในการกำกับดูแลของมนุษย์ CFODive ให้ความเห็นว่านี่เป็น "สัญญาณเตือนสำหรับภาคการเงินขององค์กรทั้งหมด" เนื่องจากความเสี่ยงที่อาจเกิดขึ้นจากการปล่อยให้เครื่องจักรเข้ามามีส่วนร่วมในกระบวนการที่ต้องการความแม่นยำสูง
อันที่จริงแล้ว Deloitte เป็นหนึ่งในผู้บุกเบิกการนำเทคโนโลยี AI มาประยุกต์ใช้ในกระบวนการตรวจสอบบัญชี กลุ่มบริษัทได้ลงทุนมากกว่า 1 พันล้านดอลลาร์สหรัฐในการเปลี่ยนผ่านสู่ดิจิทัล โดยมุ่งมั่นที่จะใช้ประโยชน์จากพลังของบิ๊กดาต้าและแมชชีนเลิร์นนิงเพื่อเพิ่มประสิทธิภาพและการวิเคราะห์เชิงลึก ข้อมูลจาก Financial News London ระบุว่าในสหราชอาณาจักร ผู้ตรวจสอบบัญชีของ Deloitte กว่า 75% เคยใช้แชทบอทภายในองค์กรที่ชื่อว่า "PairD" ซึ่งเพิ่มขึ้นสามเท่าจากปีก่อนหน้า
AI ช่วยให้ผู้ตรวจสอบบัญชีประมวลผลข้อมูลปริมาณมหาศาล ดึงข้อมูลจากสัญญาหลายพันหน้า ตรวจจับความผิดปกติ และประหยัดเวลาทำงานหลายร้อยชั่วโมง อย่างไรก็ตาม เหตุการณ์ที่เกิดขึ้นที่ Deloitte Australia แสดงให้เห็นถึงข้อเสียของกระบวนการนี้ นั่นคือ เมื่อเทคโนโลยีไม่ได้รับการตรวจสอบอย่างใกล้ชิด AI สามารถสร้างเนื้อหา “สมมติ” ซึ่งดูเหมือนสมเหตุสมผล แต่แท้จริงแล้วเป็นเท็จโดยสิ้นเชิง

(ภาพ: Getty Images)
รายงานการสอบสวนระบุว่า รายงาน 237 หน้าของ Deloitte อ้างอิงคำตัดสินของศาลรัฐบาลกลางออสเตรเลียที่ไม่เคยถูกเปิดเผย การอ้างอิงบางส่วนในภาคผนวกก็ไม่มีเช่นกัน หน่วยงานรัฐบาลได้ตรวจสอบและสอบถาม Deloitte แล้วจึงยอมรับว่ามีการใช้เครื่องมือ AI ในกระบวนการรวบรวมข้อมูล แม้ว่าบริษัทจะยืนยันว่า "AI มีบทบาทสนับสนุนเท่านั้น" แต่เหตุการณ์ดังกล่าวกลับสร้างความเสียหายอย่างมากต่อชื่อเสียงของแบรนด์และก่อให้เกิดคำถามเกี่ยวกับความโปร่งใสในกระบวนการทำงานของบริษัท
ปัญหาที่เกิดขึ้นนี้ไม่ใช่แค่ความผิดพลาดทางเทคนิคเท่านั้น แต่ยังเป็นความผิดพลาดที่กระทบถึงรากฐานของวิชาชีพการตรวจสอบบัญชี ซึ่งตั้งอยู่บนพื้นฐานความไว้วางใจทางสังคม เมื่อหนึ่งในบริษัทตรวจสอบบัญชีที่ใหญ่ที่สุดในโลกสี่แห่งทำผิดพลาดเกี่ยวกับปัญญาประดิษฐ์ ความเชื่อมั่นของสาธารณชนต่อความเป็นอิสระและจริยธรรมของอุตสาหกรรมโดยรวมก็สั่นคลอน
ผลกระทบนี้ยิ่งรุนแรงมากขึ้นไปอีกเมื่อ AI กลายเป็นเครื่องมือยอดนิยมในบริษัทตรวจสอบบัญชีอื่นๆ เช่น PwC, EY หรือ KPMG จากผลสำรวจของศูนย์ตรวจสอบคุณภาพ (CAQ) พบว่าพันธมิตรด้านการตรวจสอบบัญชีทั่วโลกกว่า 1 ใน 3 ระบุว่าเคยใช้หรือวางแผนที่จะใช้ AI ในกระบวนการตรวจสอบบัญชี ซึ่งหมายความว่าความเสี่ยงของข้อผิดพลาดของระบบ หากไม่ได้รับการจัดการอย่างเหมาะสม อาจแพร่กระจายไปทั่วโลก
การตรวจสอบบัญชีในยุคปัญญาประดิษฐ์: โอกาสและคำเตือน
จากเหตุการณ์ช็อกดังกล่าว อุตสาหกรรมการตรวจสอบบัญชีจึงจำเป็นต้องทบทวนวิธีการก้าวเข้าสู่ยุค AI ที่ทั้งโอกาสและความเสี่ยงเชื่อมโยงกัน หลังจากเหตุการณ์ดังกล่าว Deloitte ได้ประกาศเปิดตัว "กรอบการทำงาน AI ที่น่าเชื่อถือ" อย่างรวดเร็ว ซึ่งเป็นระบบแนวทางปฏิบัติสำหรับการใช้ AI อย่างมีความรับผิดชอบ โดยมุ่งเน้นหลักการ 5 ประการ ได้แก่ ความยุติธรรม ความโปร่งใส ความสามารถในการอธิบาย ความรับผิดชอบ และการรักษาความลับ นอกจากนี้ บริษัทยังได้ขยายแพลตฟอร์ม Omnia Audit Platform ระดับโลก โดยผสานรวมความสามารถของ "GenAI" เพื่อสนับสนุนกระบวนการวิเคราะห์และการรายงาน Deloitte ยืนยันว่าผลลัพธ์ทั้งหมดที่สร้างขึ้นโดย AI จะต้องได้รับการตรวจสอบและยืนยันโดยผู้เชี่ยวชาญก่อนที่จะเผยแพร่
อย่างไรก็ตาม ผู้เชี่ยวชาญกล่าวว่าความพยายามของ Deloitte ถึงแม้จะเป็นสิ่งจำเป็น แต่ก็เป็นเพียงก้าวแรกในการเดินทางอันยาวไกลเพื่อปรับเปลี่ยนความสัมพันธ์ระหว่างมนุษย์และเทคโนโลยีในอุตสาหกรรมการตรวจสอบบัญชี ผู้เชี่ยวชาญจาก Financial Times เตือนว่าหลายบริษัทกำลัง “แข่งขันกับ AI” โดยปราศจากการสร้างกลไกการควบคุมและการประเมินผลกระทบที่ชัดเจน AI ช่วยประหยัดเวลา แต่ในขณะเดียวกันก็ทำให้เส้นแบ่งระหว่างงานของมนุษย์และเครื่องจักรเลือนลางลง โดยเฉพาะอย่างยิ่งในงานที่ต้องใช้วิจารณญาณและความสงสัยในวิชาชีพ ซึ่งเป็นธรรมชาติของผู้ตรวจสอบบัญชี
PwC ซึ่งเป็นหนึ่งในบริษัท Big Four ได้ปรับปรุงโปรแกรมการฝึกอบรมสำหรับพนักงานใหม่อย่างเป็นทางการ โดยแทนที่การตรวจสอบบัญชีขั้นพื้นฐาน พวกเขาจะได้เรียนรู้วิธี “ตรวจสอบ AI” วิเคราะห์ผลลัพธ์ และประเมินความเสี่ยงทางเทคโนโลยี Business Insider ระบุว่าบริษัทเชื่อว่า “ผู้ตรวจสอบบัญชีในอนาคตจะไม่เพียงแต่อ่านตัวเลขได้อีกต่อไป แต่ยังเข้าใจวิธีคิดของเครื่องจักรได้อีกด้วย”

(ภาพ: ราหุล)
ในขณะเดียวกัน หน่วยงานกำกับดูแลและองค์กรวิชาชีพต่างๆ กำลังเริ่มพิจารณาออกมาตรฐานใหม่สำหรับ “การตรวจสอบ AI” คณะกรรมการมาตรฐานการตรวจสอบและการรับรองระหว่างประเทศ (IAASB) กำลังดำเนินการจัดทำแนวทางเพิ่มเติมเกี่ยวกับการใช้เครื่องมือ AI ในการรวบรวมและการรายงานหลักฐาน ผู้เชี่ยวชาญบางท่านได้เสนอให้สร้างมาตรฐานการตรวจสอบแยกต่างหากเพื่อให้มั่นใจว่ามีความสอดคล้องกันทั่วโลก
พัฒนาการเหล่านี้แสดงให้เห็นว่าอุตสาหกรรมการตรวจสอบบัญชีกำลังเข้าสู่ยุคแห่งการเปลี่ยนแปลงครั้งใหญ่ เทคโนโลยีไม่อาจถูกกำจัดได้ แต่การประยุกต์ใช้เทคโนโลยีจำเป็นต้องได้รับการควบคุมอย่างรอบคอบและเข้มงวด มิฉะนั้น ความเสี่ยงที่จะสูญเสียการควบคุมอาจทำให้ความเชื่อมั่นในระบบการเงินที่รักษาไว้มานานหลายศตวรรษพังทลายลงได้ภายในไม่กี่คลิก
จากมุมมองด้านโอกาส AI สัญญาว่าจะมีความก้าวหน้าที่ไม่เคยมีมาก่อน ได้แก่ ความสามารถในการประมวลผลธุรกรรมหลายล้านรายการภายในระยะเวลาอันสั้น ตรวจจับการฉ้อโกงที่ซับซ้อนซึ่งมนุษย์ตรวจจับได้ยาก และเปิดแนวคิดของ "การตรวจสอบอย่างต่อเนื่อง" - การตรวจสอบความเสี่ยงแบบเรียลไทม์ Deloitte, PwC, KPMG และ EY ต่างลงทุนหลายร้อยล้านดอลลาร์ในแต่ละปีเพื่อพัฒนาระบบ AI ของตนเอง
อย่างไรก็ตาม โอกาสจะกลายเป็นคุณค่าที่แท้จริงได้ก็ต่อเมื่อมาพร้อมกับความรับผิดชอบ บทเรียนจาก Deloitte Australia แสดงให้เห็นว่าเทคโนโลยีสามารถเปลี่ยนแปลงวิธีการทำงาน แต่ไม่สามารถแทนที่จริยธรรมและการตรวจสอบโดยมนุษย์ได้ ในโลกของการตรวจสอบ AI ความไว้วางใจยังคงเป็นทรัพย์สินที่มีค่าที่สุด
จากกรณีของ Deloitte ผู้เชี่ยวชาญได้บทเรียนสำคัญหลายประการ:
- ความโปร่งใสอย่างแท้จริงในการใช้ AI: เนื้อหาใดๆ ที่สร้างหรือสนับสนุนโดยเครื่องมือ AI จะต้องเปิดเผยอย่างชัดเจนต่อลูกค้าและหน่วยงานกำกับดูแล
- เสริมสร้างทักษะการฝึกอบรมและการกำกับดูแล: ผู้ตรวจสอบจำเป็นต้องเข้าใจวิธีการทำงานของ AI รู้ถึงข้อจำกัดของเทคโนโลยี และสามารถประเมินความสมเหตุสมผลของผลลัพธ์ได้
- จัดตั้งกลไกการตรวจสอบ AI: ไม่เพียงแต่ข้อมูลทางการเงินเท่านั้นที่ต้องได้รับการตรวจสอบ แต่กระบวนการและโมเดล AI ยังต้องได้รับการ "ตรวจสอบซ้ำ" เพื่อให้แน่ใจถึงความเป็นกลางและความโปร่งใส
- รักษาจริยธรรมวิชาชีพ: ไม่ว่าเทคโนโลยีจะพัฒนาไปมากเพียงใด หลักการสำคัญของการตรวจสอบก็ยังคงอยู่ที่ "ความเป็นอิสระ ความซื่อสัตย์ และความเป็นกลาง"
ที่มา: https://vtv.vn/nganh-kiem-toan-chan-dong-vi-ai-100251103192302453.htm






การแสดงความคิดเห็น (0)