
(ภาพ: LinkedIn)
บริษัท Deloitte ซึ่งเป็นหนึ่งในสี่บริษัทตรวจสอบบัญชีชั้นนำ ของโลก ถูกกล่าวหาว่าใช้ปัญญาประดิษฐ์ (AI) ในการสร้างรายงานที่มีข้อมูลเท็จ เหตุการณ์นี้ไม่เพียงแต่สั่นคลอนชื่อเสียงของบริษัทเท่านั้น แต่ยังจุดประกายการถกเถียงระดับโลกเกี่ยวกับการใช้ AI อย่างมีความรับผิดชอบในสาขาที่ตั้งอยู่บนพื้นฐานของความซื่อสัตย์ ความถูกต้อง และความน่าเชื่อถือ
การ "ล่มสลาย" ของผู้นำ
ตามรายงานของสำนักข่าว AP (ตุลาคม 2025) สาขาของ Deloitte ในออสเตรเลียตกลงที่จะชดเชยเงินให้กับ รัฐบาล ออสเตรเลียเป็นส่วนหนึ่งของสัญญาที่มีมูลค่า 440,000 ดอลลาร์ออสเตรเลีย (ประมาณ 290,000 ดอลลาร์สหรัฐ) หลังจากพบว่ารายงานที่ส่งไปยังกรมแรงงานและสัมพันธ์การจ้างงาน (DEWR) มีการอ้างอิงทางกฎหมายที่ไม่มีอยู่จริงและเอกสารทางวิชาการปลอม การตรวจสอบภายในของ Deloitte ในภายหลังยืนยันว่าเนื้อหาบางส่วนถูกสร้างขึ้นโดยเครื่องมือ AI "Azure OpenAI" ของ Microsoft
เหตุการณ์ดังกล่าวได้ก่อให้เกิดปฏิกิริยาลูกโซ่ในทันที ทำให้ผู้เชี่ยวชาญและหน่วยงานกำกับดูแลออกคำเตือนว่าเทคโนโลยีพัฒนาไปเร็วกว่ากรอบกฎหมายและความสามารถในการกำกับดูแลของมนุษย์ CFODive ระบุว่านี่คือ "สัญญาณเตือนภัยสำหรับภาคการเงินขององค์กรทั้งหมด" ซึ่งเน้นย้ำถึงความเสี่ยงที่อาจเกิดขึ้นจากการปล่อยให้เครื่องจักรเข้ามามีส่วนร่วมในกระบวนการที่ต้องการความแม่นยำสูงสุด
ที่จริงแล้ว Deloitte เป็นหนึ่งในบริษัทผู้บุกเบิกในการนำเทคโนโลยี AI มาใช้ในกระบวนการตรวจสอบบัญชี บริษัทได้ลงทุนกว่า 1 พันล้านดอลลาร์ในการเปลี่ยนแปลงทางดิจิทัล โดยมุ่งมั่นที่จะใช้ประโยชน์จากพลังของข้อมูลขนาดใหญ่และการเรียนรู้ของเครื่องจักรเพื่อเพิ่มประสิทธิภาพและความลึกซึ้งในการวิเคราะห์ จากข้อมูลของ Financial News London ในสหราชอาณาจักร พนักงานตรวจสอบบัญชีของ Deloitte มากกว่า 75% ใช้แชทบอทภายในที่ชื่อว่า "PairD" ซึ่งเพิ่มขึ้นถึงสามเท่าเมื่อเทียบกับปีที่แล้ว
ปัญญาประดิษฐ์ (AI) ช่วยให้ผู้ตรวจสอบบัญชีประมวลผลข้อมูลจำนวนมหาศาล ดึงข้อมูลจากสัญญาหลายพันหน้า ตรวจจับความผิดปกติ และประหยัดเวลาทำงานได้หลายร้อยชั่วโมง อย่างไรก็ตาม เหตุการณ์ที่เกิดขึ้นที่ Deloitte Australia แสดงให้เห็นถึงข้อเสียของกระบวนการนี้: เมื่อเทคโนโลยีไม่ได้รับการตรวจสอบอย่างใกล้ชิด AI สามารถสร้างเนื้อหา "ปลอม" ขึ้นมาได้ ซึ่งเป็นข้อมูลที่ดูเหมือนจริงแต่แท้จริงแล้วเป็นเท็จโดยสิ้นเชิง

(ภาพ: Getty Images)
จากรายงานการสอบสวนพบว่า รายงาน 237 หน้าของเดลอยต์อ้างถึงคำตัดสินของศาลรัฐบาลกลางออสเตรเลียซึ่งไม่เคยเกิดขึ้นจริง นอกจากนี้ เอกสารอ้างอิงหลายรายการในภาคผนวกก็ไม่มีอยู่จริงเช่นกัน หลังจากที่หน่วยงานของรัฐทำการตรวจสอบและสอบถามอย่างละเอียดแล้ว เดลอยต์จึงยอมรับว่ามีการใช้ AI ในกระบวนการรวบรวมข้อมูล แม้ว่าบริษัทจะยืนยันว่า "AI มีบทบาทเพียงแค่สนับสนุน" แต่เหตุการณ์นี้ได้สร้างความเสียหายอย่างมากต่อชื่อเสียงของแบรนด์และทำให้เกิดคำถามเกี่ยวกับความโปร่งใสของกระบวนการทำงานของบริษัท
ปัญหาในที่นี้ไม่ใช่แค่ความผิดพลาดทางเทคนิคเท่านั้น แต่เกี่ยวข้องกับรากฐานของวิชาชีพการตรวจสอบบัญชี ซึ่งตั้งอยู่บนพื้นฐานของความไว้วางใจทางสังคม เมื่อหนึ่งในสี่บริษัทตรวจสอบบัญชีที่ใหญ่ที่สุดของโลกทำผิดพลาดเกี่ยวกับปัญญาประดิษฐ์ ความเชื่อมั่นของสาธารณชนในความเป็นอิสระและจริยธรรมทางวิชาชีพของอุตสาหกรรมทั้งหมดจึงสั่นคลอน
ผลกระทบนี้ยิ่งร้ายแรงขึ้นไปอีกเมื่อพิจารณาว่า AI กำลังกลายเป็นเครื่องมือที่ใช้กันทั่วไปในบริษัทตรวจสอบบัญชีอื่นๆ เช่น PwC, EY และ KPMG จากการสำรวจของศูนย์คุณภาพการตรวจสอบบัญชี (CAQ) พบว่า มากกว่าหนึ่งในสามของหุ้นส่วนผู้ตรวจสอบบัญชีทั่วโลกกล่าวว่าพวกเขาได้ใช้หรือวางแผนที่จะใช้ AI ในกระบวนการตรวจสอบบัญชีของตน ซึ่งหมายความว่าความเสี่ยงของข้อผิดพลาดเชิงระบบ หากไม่ได้รับการจัดการอย่างเหมาะสม อาจแพร่กระจายไปทั่วโลก
การตรวจสอบเวลาด้วย AI: โอกาสและคำเตือน
หลังจากเหตุการณ์นั้น อุตสาหกรรมการตรวจสอบบัญชีถูกบังคับให้ประเมินแนวทางในการรับมือกับยุค AI ใหม่ ซึ่งเป็นยุคที่โอกาสและความเสี่ยงเกี่ยวพันกัน หลังเหตุการณ์ดังกล่าว Deloitte ได้ประกาศ "กรอบการทำงาน AI ที่น่าเชื่อถือ" อย่างรวดเร็ว ซึ่งเป็นระบบแนวทางสำหรับการใช้งาน AI อย่างมีความรับผิดชอบ โดยมุ่งเน้นที่หลักการห้าประการ ได้แก่ ความเป็นธรรม ความโปร่งใส ความสามารถในการอธิบาย ความรับผิดชอบ และการรักษาความลับ บริษัทฯ ยังได้ขยายแพลตฟอร์มการตรวจสอบบัญชี Omnia ทั่วโลก โดยบูรณาการความสามารถของ "GenAI" เพื่อสนับสนุนกระบวนการวิเคราะห์และการรายงาน Deloitte ยืนยันว่าผลลัพธ์ทั้งหมดที่สร้างโดย AI จะต้องได้รับการตรวจสอบและยืนยันโดยผู้เชี่ยวชาญก่อนที่จะเผยแพร่
อย่างไรก็ตาม ผู้เชี่ยวชาญเชื่อว่าความพยายามของ Deloitte แม้จะเป็นสิ่งจำเป็น แต่ก็เป็นเพียงก้าวแรกในเส้นทางอันยาวไกลที่จะปรับความสัมพันธ์ระหว่างมนุษย์และเทคโนโลยีในอุตสาหกรรมการตรวจสอบบัญชี ผู้เชี่ยวชาญจาก Financial Times เตือนว่าหลายบริษัทกำลัง "แข่งกับ AI" โดยที่ไม่ได้สร้างกลไกที่ชัดเจนสำหรับการควบคุมและประเมินผลกระทบของมัน AI ช่วยประหยัดเวลา แต่ก็ทำให้เส้นแบ่งระหว่างงานของมนุษย์และเครื่องจักรไม่ชัดเจน โดยเฉพาะอย่างยิ่งในงานที่ต้องใช้การตัดสินใจและความสงสัยอย่างมืออาชีพ ซึ่งเป็นสิ่งที่อยู่คู่กับงานของผู้ตรวจสอบบัญชี
PwC ซึ่งเป็นอีกหนึ่งสมาชิกในกลุ่ม Big Four ได้ปรับเปลี่ยนโปรแกรมฝึกอบรมสำหรับพนักงานใหม่ โดยแทนที่จะทำการตรวจสอบบัญชีขั้นพื้นฐาน พวกเขาจะได้เรียนรู้วิธี "ตรวจสอบ AI" วิเคราะห์ผลลัพธ์ และประเมินความเสี่ยงทางเทคโนโลยี ตามรายงานของ Business Insider บริษัทเชื่อว่า "ผู้ตรวจสอบบัญชีในอนาคตจะไม่เพียงแต่รู้วิธีอ่านตัวเลขเท่านั้น แต่ต้องเข้าใจว่าเครื่องจักรคิดอย่างไร"

(ภาพ: ราหุล)
ในขณะเดียวกัน หน่วยงานกำกับดูแลและองค์กรวิชาชีพต่าง ๆ เริ่มพิจารณาออกมาตรฐานใหม่สำหรับ "การตรวจสอบบัญชีที่ขับเคลื่อนด้วย AI" คณะกรรมการมาตรฐานการตรวจสอบและรับรองระหว่างประเทศ (IAASB) กำลังศึกษาการเพิ่มแนวทางที่เกี่ยวข้องกับการใช้เครื่องมือปัญญาประดิษฐ์ในการรวบรวมหลักฐานและการรายงาน ผู้เชี่ยวชาญบางคนแนะนำให้จัดตั้งมาตรฐานการตรวจสอบบัญชีแยกต่างหากเพื่อให้เกิดความสอดคล้องกันทั่วโลก
พัฒนาการเหล่านี้บ่งชี้ว่าอุตสาหกรรมการตรวจสอบบัญชีกำลังเข้าสู่ช่วงเวลาแห่งการเปลี่ยนแปลงอย่างลึกซึ้ง เทคโนโลยีไม่สามารถกำจัดได้ แต่การนำไปใช้จำเป็นต้องใช้ความระมัดระวังและการควบคุมอย่างเข้มงวด มิเช่นนั้น ความเสี่ยงที่จะสูญเสียการควบคุมอาจทำให้ความเชื่อมั่นในระบบการเงิน ซึ่งได้รับการรักษาไว้เป็นเวลาหลายศตวรรษ พังทลายลงได้ด้วยการคลิกเพียงไม่กี่ครั้ง
ในแง่ของโอกาส ปัญญาประดิษฐ์ (AI) สัญญาว่าจะนำมาซึ่งความก้าวหน้าอย่างที่ไม่เคยมีมาก่อน: ความสามารถในการประมวลผลธุรกรรมนับล้านรายการในเวลาอันสั้น ตรวจจับการฉ้อโกงที่ซับซ้อนซึ่งมนุษย์ตรวจจับได้ยาก และเปิดโอกาสให้เกิดแนวคิด "การตรวจสอบอย่างต่อเนื่อง" - การตรวจสอบความเสี่ยงแบบเรียลไทม์ บริษัทต่างๆ เช่น Deloitte, PwC, KPMG และ EY ต่างลงทุนหลายร้อยล้านดอลลาร์ต่อปีเพื่อพัฒนา AI ของตนเอง
อย่างไรก็ตาม โอกาสจะกลายเป็นคุณค่าที่แท้จริงได้ก็ต่อเมื่อมาพร้อมกับความรับผิดชอบ บทเรียนจาก Deloitte Australia แสดงให้เห็นว่าเทคโนโลยีสามารถเปลี่ยนแปลงวิธีการทำงานของเราได้ แต่ไม่สามารถทดแทนจริยธรรมและการตรวจสอบของมนุษย์ได้ ในโลกของการตรวจสอบด้วย AI ความไว้วางใจยังคงเป็นสินทรัพย์ที่ยิ่งใหญ่ที่สุด
ผู้เชี่ยวชาญได้สรุปบทเรียนสำคัญหลายประการจากกรณีของ Deloitte ดังนี้:
- ความโปร่งใสอย่างแท้จริงในการใช้ AI: เนื้อหาใดๆ ที่สร้างหรือสนับสนุนโดยเครื่องมือ AI จะต้องเปิดเผยให้ลูกค้าและหน่วยงานกำกับดูแลทราบอย่างชัดเจน
- ทักษะการฝึกอบรมและการกำกับดูแลที่ได้รับการพัฒนา: ผู้ตรวจสอบบัญชีจำเป็นต้องเข้าใจวิธีการทำงานของ AI รู้ถึงข้อจำกัดของเทคโนโลยี และสามารถประเมินความสมเหตุสมผลของผลลัพธ์ได้
- จัดตั้งกลไกการตรวจสอบสำหรับ AI: ไม่เพียงแต่ข้อมูลทางการเงินเท่านั้น แต่กระบวนการและแบบจำลอง AI ก็จำเป็นต้องได้รับการ "ตรวจสอบ" เพื่อให้มั่นใจในความเป็นกลางและความโปร่งใส
- การยึดมั่นในจรรยาบรรณวิชาชีพ: ไม่ว่าเทคโนโลยีจะพัฒนาไปมากแค่ไหน หลักการสำคัญของการตรวจสอบบัญชีก็ยังคงเป็น "ความเป็นอิสระ ความซื่อสัตย์ และความเป็นกลาง"
ที่มา: https://vtv.vn/nganh-kiem-toan-chan-dong-vi-ai-100251103192302453.htm






การแสดงความคิดเห็น (0)