
(عکس: لینکدین)
شرکت دیلویت، یکی از «چهار حسابرس بزرگ» جهان ، به استفاده از هوش مصنوعی (AI) برای تدوین گزارشهای حاوی اطلاعات نادرست متهم شده است. این حادثه نه تنها اعتبار این شرکت را متزلزل کرده، بلکه بحثی جهانی را در مورد استفاده مسئولانه از هوش مصنوعی در زمینهای که مبتنی بر صداقت، دقت و اعتماد است، برانگیخته است.
«سقوط» رهبر
طبق اطلاعات خبرگزاری آسوشیتدپرس (اکتبر ۲۰۲۵)، شرکت دیلویت استرالیا پس از کشف اینکه گزارش ارسال شده به وزارت کار و روابط استخدامی (DEWR) حاوی استنادهای قانونی ناموجود و مقالات دانشگاهی جعلی است، موافقت کرده است که بخشی از ارزش قرارداد به ارزش ۴۴۰،۰۰۰ دلار استرالیا (معادل حدود ۲۹۰،۰۰۰ دلار آمریکا) را به دولت استرالیا بازپرداخت کند. بررسی داخلی دیلویت بعداً تأیید کرد که بخشی از محتوا توسط ابزار "Azure OpenAI" - مدل هوش مصنوعی مایکروسافت - تولید شده است.
این حادثه بلافاصله یک واکنش زنجیرهای ایجاد کرد و باعث شد کارشناسان و آژانسهای مدیریتی همزمان هشدار دهند: فناوری سریعتر از چارچوب قانونی و قابلیتهای نظارت انسانی پیشرفت میکند. CFODive اظهار داشت که این «زنگ خطری برای کل بخش مالی شرکتها» است، زیرا خطرات احتمالی ناشی از مشارکت ماشینها در فرآیندی که نیاز به دقت مطلق دارد، وجود دارد.
در واقع، دیلویت یکی از پیشگامان بهکارگیری فناوری هوش مصنوعی در فرآیند حسابرسی است. این گروه بیش از ۱ میلیارد دلار در تحول دیجیتال سرمایهگذاری کرده است و متعهد به استفاده از قدرت کلانداده و یادگیری ماشینی برای افزایش کارایی و عمق تحلیلی است. طبق گزارش فایننشال نیوز لندن، در بریتانیا، بیش از ۷۵ درصد از حسابرسان دیلویت از یک چتبات داخلی به نام "PairD" استفاده کردهاند که نسبت به سال قبل سه برابر افزایش یافته است.
هوش مصنوعی به حسابرسان کمک میکند تا حجم عظیمی از دادهها را پردازش کنند، اطلاعات را از هزاران صفحه قرارداد استخراج کنند، ناهنجاریها را تشخیص دهند و صدها ساعت کار را صرفهجویی کنند. با این حال، حادثه در Deloitte استرالیا جنبه منفی این فرآیند را نشان میدهد: وقتی فناوری از نزدیک مورد نظارت قرار نگیرد، هوش مصنوعی میتواند محتوای «تخیلی» ایجاد کند - اطلاعاتی که منطقی به نظر میرسند اما در واقع کاملاً نادرست هستند.

(عکس: گتی ایمیجز)
طبق گزارش تحقیق، گزارش ۲۳۷ صفحهای دیلویت به حکم دادگاه فدرال استرالیا استناد کرده است که هرگز فاش نشد. برخی از ارجاعات موجود در پیوست نیز وجود نداشتند. تنها پس از آنکه یک سازمان دولتی دیلویت را مورد بررسی و پرسش قرار داد، این شرکت اذعان کرد که از ابزارهای هوش مصنوعی در فرآیند گردآوری اطلاعات استفاده شده است. اگرچه این شرکت ادعا کرد که «هوش مصنوعی فقط نقش حمایتی داشته است»، اما این حادثه به اعتبار برند آن آسیب قابل توجهی وارد کرد و سوالاتی را در مورد شفافیت فرآیند کاری آن مطرح کرد.
مسئله اینجا فقط یک خطای فنی نیست، بلکه ریشههای حرفه حسابرسی - که مبتنی بر اعتماد اجتماعی است - را لمس میکند. وقتی یکی از چهار شرکت بزرگ حسابرسی جهان مرتکب اشتباهی مرتبط با هوش مصنوعی میشود، اعتماد عمومی به استقلال و اخلاق کل صنعت متزلزل میشود.
این تأثیر در شرایطی که هوش مصنوعی به ابزاری محبوب در سایر شرکتهای حسابرسی مانند PwC، EY یا KPMG تبدیل شده است، حتی جدیتر نیز میشود. طبق نظرسنجی مرکز کیفیت حسابرسی (CAQ)، بیش از یک سوم شرکای حسابرسی جهانی گفتهاند که از هوش مصنوعی در فرآیند حسابرسی استفاده کردهاند یا قصد دارند از آن استفاده کنند. این بدان معناست که خطر خطاهای سیستم، اگر به درستی مدیریت نشود، میتواند در مقیاس جهانی گسترش یابد.
حسابرسی در عصر هوش مصنوعی: فرصتها و هشدارها
از آن شوک، صنعت حسابرسی مجبور شد چگونگی ورود به عصر هوش مصنوعی - جایی که فرصتها و خطرات در هم تنیده شدهاند - را دوباره بررسی کند. پس از این حادثه، دیلویت به سرعت «چارچوب هوش مصنوعی قابل اعتماد» را اعلام کرد - سیستمی از دستورالعملها برای استفاده مسئولانه از هوش مصنوعی، با تمرکز بر پنج اصل: انصاف، شفافیت، قابلیت توضیح، مسئولیتپذیری و محرمانگی. این شرکت همچنین پلتفرم حسابرسی جهانی Omnia خود را گسترش داد و قابلیتهای «GenAI» را برای پشتیبانی از فرآیند تحلیل و گزارشدهی ادغام کرد. دیلویت تأیید کرد که تمام نتایج تولید شده توسط هوش مصنوعی باید قبل از انتشار توسط متخصصان انسانی بررسی و تأیید شوند.
با این حال، کارشناسان میگویند تلاشهای دیلویت - اگرچه ضروری است - تنها اولین گام در سفری طولانی برای تنظیم رابطه بین انسان و فناوری در صنعت حسابرسی است. کارشناسان فایننشال تایمز هشدار میدهند که بسیاری از شرکتها بدون ایجاد مکانیسمهای کنترل و ارزیابی تأثیر واضح، در حال «رقابت با هوش مصنوعی» هستند. هوش مصنوعی در زمان صرفهجویی میکند، اما در عین حال مرز بین کار انسان و ماشین را محو میکند - به ویژه در کارهایی که نیاز به قضاوت و تردید حرفهای دارند، که ماهیت حسابرسان است.
شرکت PwC، یکی دیگر از اعضای چهار شرکت بزرگ، برنامه آموزشی خود را برای استخدامهای جدید به طور عمومی تغییر داده است: به جای انجام حسابرسی اولیه، آنها یاد میگیرند که چگونه «هوش مصنوعی را رصد کنند»، نتایج را تجزیه و تحلیل کنند و خطرات فناوری را ارزیابی کنند. به گفته Business Insider، این شرکت معتقد است که «حسابرس آینده دیگر فقط قادر به خواندن اعداد نخواهد بود، بلکه نحوه تفکر ماشینها را نیز درک خواهد کرد.»

(عکس: راهول)
در همین حال، نهادهای نظارتی و حرفهای در حال بررسی صدور استانداردهای جدید برای «حسابرسی هوش مصنوعی» هستند. هیئت استانداردهای بینالمللی حسابرسی و تضمین (IAASB) در حال کار بر روی راهنماییهای بیشتر در مورد استفاده از ابزارهای هوش مصنوعی در جمعآوری شواهد و گزارشدهی است. برخی از کارشناسان پیشنهاد ایجاد یک استاندارد حسابرسی جداگانه برای تضمین ثبات جهانی را دادهاند.
این تحولات نشان میدهد که صنعت حسابرسی در حال ورود به دورهای از تحول عمیق است. فناوری را نمیتوان حذف کرد، اما کاربرد آن مستلزم کنترل دقیق و سختگیرانه است. در غیر این صورت، خطر از دست دادن کنترل میتواند باعث شود اعتماد به سیستم مالی - که قرنها حفظ شده است - تنها با چند کلیک از بین برود.
از منظر فرصت، هوش مصنوعی نویدبخش پیشرفتهای بیسابقهای است: توانایی پردازش میلیونها تراکنش در مدت زمان کوتاه، تشخیص کلاهبرداریهای پیچیدهای که تشخیص آنها برای انسانها دشوار است، و ایجاد مفهوم «ممیزی مداوم» - نظارت بر ریسکها در زمان واقعی. شرکتهای Deloitte، PwC، KPMG و EY همگی سالانه صدها میلیون دلار برای توسعه سیستمهای هوش مصنوعی خود سرمایهگذاری میکنند.
با این حال، فرصتها تنها زمانی میتوانند به ارزش واقعی تبدیل شوند که با مسئولیتپذیری همراه باشند. درس دیلویت استرالیا نشان میدهد که فناوری میتواند روش کار را تغییر دهد، اما نمیتواند جایگزین اخلاق و تأیید انسانی شود. در دنیای حسابرسی هوش مصنوعی، اعتماد هنوز بزرگترین دارایی است.
از پرونده Deloitte، کارشناسان درسهای مهم بسیاری گرفتهاند:
- شفافیت مطلق در استفاده از هوش مصنوعی: هرگونه محتوایی که توسط ابزارهای هوش مصنوعی ایجاد یا پشتیبانی میشود، باید به وضوح برای مشتریان و نهادهای نظارتی افشا شود.
- افزایش مهارتهای آموزشی و نظارتی: حسابرسان باید نحوهی کار هوش مصنوعی را درک کنند، محدودیتهای فناوری را بشناسند و بتوانند معقول بودن نتایج را ارزیابی کنند.
- ایجاد یک سازوکار حسابرسی برای هوش مصنوعی: نه تنها دادههای مالی نیاز به حسابرسی دارند، بلکه فرآیندها و مدلهای هوش مصنوعی نیز باید «بازرسی» شوند تا بیطرفی و شفافیت تضمین شود.
- حفظ اخلاق حرفهای: صرف نظر از میزان پیشرفت فناوری، اصول اساسی حسابرسی «استقلال، صداقت و بیطرفی» همچنان پابرجاست.
منبع: https://vtv.vn/nganh-kiem-toan-chan-dong-vi-ai-100251103192302453.htm






نظر (0)