
(រូបថត៖ LinkedIn)
Deloitte ដែលជាសវនករ "Big Four" ម្នាក់របស់ ពិភពលោក ត្រូវបានចោទប្រកាន់ថាបានប្រើប្រាស់បញ្ញាសិប្បនិម្មិត (AI) ដើម្បីចងក្រងរបាយការណ៍ដែលមានព័ត៌មានមិនពិត។ ឧបទ្ទវហេតុនេះមិនត្រឹមតែបានធ្វើឱ្យរង្គោះរង្គើកេរ្តិ៍ឈ្មោះរបស់ក្រុមហ៊ុនប៉ុណ្ណោះទេ ប៉ុន្តែថែមទាំងបង្កឱ្យមានការជជែកដេញដោលជាសកលអំពីការប្រើប្រាស់ប្រកបដោយការទទួលខុសត្រូវរបស់ AI នៅក្នុងវិស័យដែលផ្អែកលើភាពស្មោះត្រង់ ភាពត្រឹមត្រូវ និងទំនុកចិត្ត។
"ការដួលរលំ" នៃអ្នកដឹកនាំ
យោងតាមព័ត៌មានពី AP News (ខែតុលា 2025) ក្រុមហ៊ុន Deloitte Australia បានយល់ព្រមសងប្រាក់វិញនូវផ្នែក រដ្ឋាភិបាល អូស្ត្រាលីនៃតម្លៃកិច្ចសន្យាដែលមានតម្លៃ 440,000 AUD (ស្មើនឹងប្រហែល 290,000 ដុល្លារអាមេរិក) បន្ទាប់ពីបានរកឃើញថារបាយការណ៍ដែលបានផ្ញើទៅនាយកដ្ឋានទំនាក់ទំនងការងារ និងការងារ (DEWR) មានឯកសារមិនពិត និងស្របច្បាប់។ ការត្រួតពិនិត្យផ្ទៃក្នុងដោយ Deloitte ក្រោយមកបានបញ្ជាក់ថាផ្នែកនៃមាតិកាត្រូវបានបង្កើតឡើងដោយឧបករណ៍ "Azure OpenAI" - គំរូ AI របស់ Microsoft ។
ឧប្បត្តិហេតុភ្លាមៗបានបង្កើតប្រតិកម្មសង្វាក់ដែលបណ្តាលឱ្យអ្នកជំនាញនិងភ្នាក់ងារគ្រប់គ្រងក្នុងពេលដំណាលគ្នាព្រមាន: បច្ចេកវិទ្យាកំពុងរីកចម្រើនលឿនជាងក្របខ័ណ្ឌច្បាប់និងសមត្ថភាពត្រួតពិនិត្យរបស់មនុស្ស។ CFODive បានអត្ថាធិប្បាយថា នេះគឺជា "ការដាស់តឿនមួយសម្រាប់វិស័យហិរញ្ញវត្ថុសាជីវកម្មទាំងមូល" ដោយសារតែហានិភ័យដែលអាចកើតមានពីការអនុញ្ញាតឱ្យម៉ាស៊ីនចូលរួមក្នុងដំណើរការដែលទាមទារភាពជាក់លាក់ពិតប្រាកដ។
តាមពិតទៅ Deloitte គឺជាអ្នកត្រួសត្រាយផ្លូវម្នាក់ក្នុងការអនុវត្តបច្ចេកវិទ្យា AI ទៅក្នុងដំណើរការសវនកម្ម។ ក្រុមនេះបានបណ្តាក់ទុនជាង 1 ពាន់លានដុល្លារក្នុងការផ្លាស់ប្តូរឌីជីថល ជាមួយនឹងការប្តេជ្ញាចិត្តក្នុងការប្រើថាមពលនៃទិន្នន័យធំ និងការរៀនម៉ាស៊ីនដើម្បីបង្កើនប្រសិទ្ធភាព និងជម្រៅនៃការវិភាគ។ យោងតាមសារព័ត៌មាន Financial News London នៅក្នុងប្រទេសអង់គ្លេស ជាង 75% នៃសវនកររបស់ Deloitte បានប្រើប្រាស់ chatbot ខាងក្នុងហៅថា "PairD" ដែលជាការកើនឡើងបីដងធៀបនឹងឆ្នាំមុន។
AI ជួយអ្នកសវនករដំណើរការទិន្នន័យដ៏ធំ ទាញយកព័ត៌មានពីទំព័ររាប់ពាន់នៃកិច្ចសន្យា រកឃើញភាពមិនប្រក្រតី និងសន្សំសំចៃការងាររាប់រយម៉ោង។ ទោះជាយ៉ាងណាក៏ដោយ ឧប្បត្តិហេតុនៅ Deloitte Australia បង្ហាញពីការធ្លាក់ចុះនៃដំណើរការនេះ៖ នៅពេលដែលបច្ចេកវិទ្យាមិនត្រូវបានត្រួតពិនិត្យយ៉ាងដិតដល់នោះ AI អាចបង្កើតខ្លឹមសារ "ប្រឌិត" ដែលជាព័ត៌មានដែលមើលទៅសមហេតុផល ប៉ុន្តែតាមពិតទៅមិនពិតទាំងស្រុង។

(រូបថត៖ រូបភាព Getty)
យោងតាមរបាយការណ៍ស៊ើបអង្កេត របាយការណ៍ 237 ទំព័ររបស់ Deloitte បានលើកឡើងពីសេចក្តីសម្រេចរបស់តុលាការសហព័ន្ធអូស្ត្រាលី ដែលមិនធ្លាប់មាន។ ឯកសារយោងមួយចំនួននៅក្នុងឧបសម្ព័ន្ធក៏មិនមានដែរ។ មានតែបន្ទាប់ពីទីភ្នាក់ងាររដ្ឋាភិបាលមួយបានពិនិត្យ និងសាកសួរ Deloitte ប៉ុណ្ណោះ វាបានទទួលស្គាល់ថាឧបករណ៍ AI ត្រូវបានប្រើប្រាស់ក្នុងដំណើរការចងក្រង។ ទោះបីជាក្រុមហ៊ុនបានអះអាងថា “AI ដើរតួនាទីគាំទ្រតែប៉ុណ្ណោះ” ឧបទ្ទវហេតុនេះបានធ្វើឱ្យខូចកេរ្តិ៍ឈ្មោះយីហោរបស់ខ្លួនយ៉ាងខ្លាំង និងបានចោទជាសំណួរអំពីតម្លាភាពនៃដំណើរការការងាររបស់ខ្លួន។
បញ្ហានៅទីនេះមិនមែនគ្រាន់តែជាកំហុសបច្ចេកទេសប៉ុណ្ណោះទេ ប៉ុន្តែជាបញ្ហាមួយដែលប៉ះពាល់ដល់ឫសគល់នៃវិជ្ជាជីវៈសវនកម្ម – ដែលផ្អែកលើការជឿទុកចិត្តពីសង្គម។ នៅពេលដែលក្រុមហ៊ុនសវនកម្មធំជាងគេមួយក្នុងចំនោមក្រុមហ៊ុនសវនកម្មធំបំផុតទាំងបួនរបស់ពិភពលោកធ្វើកំហុសទាក់ទងនឹង AI ទំនុកចិត្តសាធារណៈចំពោះឯករាជ្យភាព និងក្រមសីលធម៌នៃឧស្សាហកម្មទាំងមូលត្រូវបានរង្គោះរង្គើ។
ផលប៉ះពាល់នេះគឺកាន់តែធ្ងន់ធ្ងរនៅក្នុងបរិបទដែល AI ក្លាយជាឧបករណ៍ដ៏ពេញនិយមនៅក្នុងក្រុមហ៊ុនសវនកម្មផ្សេងទៀតដូចជា PwC, EY ឬ KPMG ។ យោងតាមការស្ទង់មតិរបស់មជ្ឈមណ្ឌលសម្រាប់គុណភាពសវនកម្ម (CAQ) ជាង 1/3 នៃដៃគូសវនកម្មសកលបាននិយាយថាពួកគេបានប្រើប្រាស់ ឬកំពុងរៀបចំផែនការប្រើប្រាស់ AI នៅក្នុងដំណើរការសវនកម្ម។ នេះមានន័យថា ហានិភ័យនៃកំហុសប្រព័ន្ធ ប្រសិនបើមិនបានគ្រប់គ្រងត្រឹមត្រូវ អាចរីករាលដាលជាសកល។
សវនកម្មក្នុងយុគសម័យបញ្ញាសិប្បនិមិត្ត៖ ឱកាស និងការព្រមាន
ពីភាពតក់ស្លុតនោះ ឧស្សាហកម្មសវនកម្មត្រូវបានបង្ខំឱ្យពិនិត្យមើលឡើងវិញពីរបៀបដែលវាកំពុងឈានចូលទៅក្នុងយុគសម័យ AI – ដែលជាកន្លែងដែលឱកាស និងហានិភ័យទាក់ទងគ្នា។ បន្ទាប់ពីឧបទ្ទវហេតុនេះ ក្រុមហ៊ុន Deloitte បានប្រកាសយ៉ាងឆាប់រហ័សនូវ "Trustworthy AI Framework" ដែលជាប្រព័ន្ធណែនាំសម្រាប់ការប្រើប្រាស់ប្រកបដោយការទទួលខុសត្រូវរបស់ AI ដោយផ្តោតលើគោលការណ៍ចំនួនប្រាំគឺ យុត្តិធម៌ តម្លាភាព ការពន្យល់ ការទទួលខុសត្រូវ និងការសម្ងាត់។ ក្រុមហ៊ុនក៏បានពង្រីកវេទិកាសវនកម្ម Omnia ជាសកលរបស់ខ្លួន ដោយរួមបញ្ចូលសមត្ថភាព "GenAI" ដើម្បីគាំទ្រដល់ដំណើរការវិភាគ និងរបាយការណ៍។ ក្រុមហ៊ុន Deloitte បានបញ្ជាក់ថា លទ្ធផលទាំងអស់ដែលបង្កើតដោយ AI ត្រូវតែត្រួតពិនិត្យ និងផ្ទៀងផ្ទាត់ដោយអ្នកជំនាញផ្នែកមនុស្ស មុនពេលចេញផ្សាយ។
ទោះជាយ៉ាងណាក៏ដោយ អ្នកជំនាញនិយាយថា ការខិតខំប្រឹងប្រែងរបស់ Deloitte - ខណៈពេលដែលចាំបាច់ - គ្រាន់តែជាជំហានដំបូងក្នុងដំណើរដ៏វែងឆ្ងាយដើម្បីកែតម្រូវទំនាក់ទំនងរវាងមនុស្ស និងបច្ចេកវិទ្យានៅក្នុងឧស្សាហកម្មសវនកម្ម។ អ្នកជំនាញនៅ Financial Times ព្រមានថាក្រុមហ៊ុនជាច្រើនកំពុង "ប្រណាំង AI" ដោយមិនបង្កើតយន្តការត្រួតពិនិត្យ និងវាយតម្លៃផលប៉ះពាល់ច្បាស់លាស់។ AI ជួយសន្សំសំចៃពេលវេលា ប៉ុន្តែក្នុងពេលជាមួយគ្នានេះ ធ្វើឱ្យបន្ទាត់មិនច្បាស់រវាងការងាររបស់មនុស្ស និងម៉ាស៊ីន ជាពិសេសនៅក្នុងកិច្ចការដែលទាមទារការវិនិច្ឆ័យ និងការសង្ស័យប្រកបដោយវិជ្ជាជីវៈ ដែលជាលក្ខណៈរបស់អ្នកសវនករ។
PwC សមាជិកម្នាក់ទៀតនៃ Big Four បានកែប្រែកម្មវិធីបណ្តុះបណ្តាលរបស់ខ្លួនជាសាធារណៈសម្រាប់ការជួលថ្មី៖ ជំនួសឱ្យការធ្វើសវនកម្មមូលដ្ឋាន ពួកគេនឹងរៀនពីរបៀប "ត្រួតពិនិត្យ AI" វិភាគលទ្ធផល និងវាយតម្លៃហានិភ័យផ្នែកបច្ចេកវិទ្យា។ យោងតាម Business Insider ក្រុមហ៊ុនជឿជាក់ថា "សវនករនៃអនាគតនឹងមិនអាចគ្រាន់តែអានលេខបានទៀតទេ ប៉ុន្តែក៏យល់ពីរបៀបដែលម៉ាស៊ីនគិតផងដែរ។"

(រូបថត៖ Rahul)
ទន្ទឹមនឹងនេះ និយតករ និងស្ថាប័នជំនាញកំពុងចាប់ផ្តើមពិចារណាលើការចេញស្តង់ដារថ្មីសម្រាប់ "ការធ្វើសវនកម្ម AI"។ ក្រុមប្រឹក្សាស្តង់ដារសវនកម្ម និងធានាអន្តរជាតិ (IAASB) កំពុងធ្វើការលើការណែនាំបន្ថែមលើការប្រើប្រាស់ឧបករណ៍ AI ក្នុងការប្រមូលភស្តុតាង និងការរាយការណ៍។ អ្នកជំនាញខ្លះបានស្នើបង្កើតស្តង់ដារសវនកម្មដាច់ដោយឡែក ដើម្បីធានាបាននូវភាពស៊ីសង្វាក់គ្នាជាសកល។
ការវិវត្តន៍ទាំងនេះបង្ហាញថា ឧស្សាហកម្មសវនកម្មកំពុងឈានចូលដល់ដំណាក់កាលនៃការផ្លាស់ប្តូរយ៉ាងជ្រាលជ្រៅ។ បច្ចេកវិទ្យាមិនអាចលុបចោលបានទេ ប៉ុន្តែកម្មវិធីរបស់វាទាមទារការត្រួតពិនិត្យយ៉ាងប្រុងប្រយ័ត្ន និងតឹងរ៉ឹង។ បើមិនដូច្នេះទេ ហានិភ័យនៃការបាត់បង់ការគ្រប់គ្រងអាចបណ្តាលឱ្យការជឿទុកចិត្តលើប្រព័ន្ធហិរញ្ញវត្ថុ ដែលត្រូវបានរក្សាទុកជាច្រើនសតវត្សមកហើយ - ត្រូវដួលរលំដោយគ្រាន់តែចុចពីរបីដងប៉ុណ្ណោះ។
តាមទស្សនៈនៃឱកាស AI សន្យាថានឹងមានការទម្លាយមិនធ្លាប់មានពីមុនមក៖ សមត្ថភាពក្នុងការដំណើរការប្រតិបត្តិការរាប់លានក្នុងរយៈពេលដ៏ខ្លី រកឃើញការក្លែងបន្លំដ៏ទំនើបដែលពិបាកសម្រាប់មនុស្សក្នុងការរកឃើញ និងបើកគំនិតនៃ "ការធ្វើសវនកម្មបន្ត" - ការត្រួតពិនិត្យហានិភ័យក្នុងពេលវេលាជាក់ស្តែង។ ក្រុមហ៊ុន Deloitte, PwC, KPMG និង EY សុទ្ធតែវិនិយោគរាប់រយលានដុល្លារជារៀងរាល់ឆ្នាំ ដើម្បីបង្កើតប្រព័ន្ធ AI ផ្ទាល់ខ្លួនរបស់ពួកគេ។
ទោះជាយ៉ាងណាក៏ដោយ ឱកាសអាចត្រូវបានប្រែក្លាយទៅជាតម្លៃពិត នៅពេលដែលអមដោយការទទួលខុសត្រូវ។ មេរៀនពី Deloitte Australia បង្ហាញថា បច្ចេកវិទ្យាអាចផ្លាស់ប្តូររបៀបធ្វើការ ប៉ុន្តែវាមិនអាចជំនួសក្រមសីលធម៌ និងការផ្ទៀងផ្ទាត់របស់មនុស្សបានទេ។ នៅក្នុងពិភពនៃការធ្វើសវនកម្ម AI ការជឿទុកចិត្តនៅតែជាទ្រព្យសម្បត្តិដ៏អស្ចារ្យបំផុត។
ពីករណី Deloitte អ្នកជំនាញបានទាញមេរៀនសំខាន់ៗជាច្រើន៖
- តម្លាភាពដាច់ខាតក្នុងការប្រើប្រាស់ AI៖ រាល់ខ្លឹមសារដែលបានបង្កើត ឬគាំទ្រដោយឧបករណ៍ AI ចាំបាច់ត្រូវបង្ហាញឱ្យឃើញយ៉ាងច្បាស់ដល់អតិថិជន និងនិយតករ។
- ពង្រឹងជំនាញការបណ្តុះបណ្តាល និងការត្រួតពិនិត្យ៖ សវនករត្រូវយល់ពីរបៀបដែល AI ដំណើរការ ដឹងពីដែនកំណត់នៃបច្ចេកវិទ្យា និងអាចវាយតម្លៃសមហេតុផលនៃលទ្ធផល។
- បង្កើតយន្តការសវនកម្មសម្រាប់ AI៖ មិនត្រឹមតែទិន្នន័យហិរញ្ញវត្ថុចាំបាច់ត្រូវធ្វើសវនកម្មប៉ុណ្ណោះទេ ប៉ុន្តែដំណើរការ និងគំរូរបស់ AI ក៏ត្រូវ "ធ្វើសវនកម្មឡើងវិញ" ដើម្បីធានាបាននូវវត្ថុបំណង និងតម្លាភាព។
- រក្សាក្រមសីលធម៌វិជ្ជាជីវៈ៖ មិនថាបច្ចេកវិទ្យារីកចម្រើនប៉ុណ្ណានោះទេ គោលការណ៍ស្នូលនៃសវនកម្មនៅតែ "ឯករាជ្យ ភាពស្មោះត្រង់ និងវត្ថុបំណង"។
ប្រភព៖ https://vtv.vn/nganh-kiem-toan-chan-dong-vi-ai-100251103192302453.htm






Kommentar (0)