
(عکس: لینکدین)
شرکت دیلویت - یکی از چهار شرکت بزرگ حسابرسی پیشرو در جهان - به استفاده از هوش مصنوعی (AI) برای تولید گزارشهایی حاوی اطلاعات نادرست متهم شده است. این حادثه نه تنها اعتبار این شرکت را متزلزل کرد، بلکه بحثی جهانی را در مورد استفاده مسئولانه از هوش مصنوعی در زمینهای که مبتنی بر صداقت، دقت و اعتماد است، برانگیخت.
«سقوط» رهبر
طبق گزارش خبرگزاری آسوشیتدپرس (اکتبر ۲۰۲۵)، شعبه استرالیایی شرکت Deloitte پس از کشف این موضوع که گزارشی که به وزارت کار و روابط استخدامی (DEWR) ارائه شده حاوی استنادات قانونی ناموجود و اسناد دانشگاهی جعلی است، موافقت کرد که بخشی از قرارداد به ارزش ۴۴۰،۰۰۰ دلار استرالیا (تقریباً ۲۹۰،۰۰۰ دلار آمریکا) را به دولت استرالیا بازپرداخت کند. بررسی داخلی بعدی توسط Deloitte تأیید کرد که برخی از محتوا توسط ابزار هوش مصنوعی "Azure OpenAI" مایکروسافت تولید شده است.
این حادثه بلافاصله واکنش زنجیرهای را برانگیخت و باعث شد کارشناسان و تنظیمکنندگان هشدارهایی مبنی بر پیشرفت سریعتر فناوری نسبت به چارچوب قانونی و قابلیتهای نظارت انسانی صادر کنند. CFODive اظهار داشت که این یک «زنگ خطر برای کل بخش مالی شرکتها» است و خطرات احتمالی اجازه دادن به ماشینها برای مشارکت در فرآیندهایی که نیاز به دقت مطلق دارند را برجسته میکند.
در واقع، دیلویت یکی از پیشگامان بهکارگیری فناوری هوش مصنوعی در فرآیندهای حسابرسی خود است. این شرکت بیش از ۱ میلیارد دلار در تحول دیجیتال سرمایهگذاری کرده و متعهد به استفاده از قدرت کلانداده و یادگیری ماشینی برای افزایش کارایی و عمق تحلیلی است. طبق گزارش فایننشال نیوز لندن، در بریتانیا، بیش از ۷۵ درصد از کارکنان حسابرسی دیلویت از یک چتبات داخلی به نام "PairD" استفاده میکنند که نسبت به سال قبل سه برابر افزایش یافته است.
هوش مصنوعی به حسابرسان کمک میکند تا حجم عظیمی از دادهها را پردازش کنند، اطلاعات را از هزاران صفحه قرارداد استخراج کنند، ناهنجاریها را تشخیص دهند و صدها ساعت کار را صرفهجویی کنند. با این حال، حادثه در Deloitte استرالیا جنبه منفی این فرآیند را نشان میدهد: وقتی فناوری از نزدیک مورد نظارت قرار نگیرد، هوش مصنوعی میتواند محتوای «ساختگی» ایجاد کند - اطلاعاتی که به نظر قابل قبول میآیند اما در واقع کاملاً نادرست هستند.

(عکس: گتی ایمیجز)
طبق گزارش تحقیق، گزارش ۲۳۷ صفحهای دیلویت به حکمی از دادگاه فدرال استرالیا استناد کرده است که در واقع هرگز رخ نداده است. چندین ارجاع در پیوست نیز وجود خارجی نداشتند. تنها پس از بررسی کامل و پرسش از سوی سازمانهای دولتی، دیلویت اعتراف کرد که از هوش مصنوعی در فرآیند گردآوری اطلاعات استفاده شده است. در حالی که این شرکت مدعی بود که «هوش مصنوعی فقط نقش حمایتی داشته است»، این حادثه به اعتبار برند آن آسیب قابل توجهی وارد کرد و سوالاتی را در مورد شفافیت فرآیندهای کاری آن مطرح کرد.
مسئله اینجا فقط یک خطای فنی نیست؛ بلکه به ریشههای اصلی حرفه حسابرسی - که مبتنی بر اعتماد اجتماعی است - اشاره دارد. وقتی یکی از چهار شرکت بزرگ حسابرسی جهان اشتباهی در رابطه با هوش مصنوعی مرتکب میشود، اعتماد عمومی به استقلال و اخلاق حرفهای کل صنعت متزلزل میشود.
این تأثیر با توجه به اینکه هوش مصنوعی در حال تبدیل شدن به ابزاری رایج در سایر شرکتهای حسابرسی مانند PwC، EY و KPMG است، حتی جدیتر نیز میشود. طبق نظرسنجی مرکز کیفیت حسابرسی (CAQ)، بیش از یک سوم شرکای حسابرسی جهانی گفتهاند که از هوش مصنوعی در فرآیندهای حسابرسی خود استفاده کردهاند یا قصد دارند از آن استفاده کنند. این بدان معناست که خطر خطاهای سیستمی، اگر به درستی مدیریت نشود، میتواند در سطح جهانی گسترش یابد.
حسابرسی زمان هوش مصنوعی: فرصتها و هشدارها
پس از آن حادثه، صنعت حسابرسی مجبور شد رویکرد خود را نسبت به عصر هوش مصنوعی - جایی که فرصتها و خطرات در هم تنیده شدهاند - دوباره ارزیابی کند. پس از این رویداد، دیلویت به سرعت «چارچوب هوش مصنوعی قابل اعتماد» خود را اعلام کرد - سیستمی از دستورالعملها برای استفاده مسئولانه از هوش مصنوعی، با تمرکز بر پنج اصل: انصاف، شفافیت، قابلیت توضیح، پاسخگویی و محرمانگی. این شرکت همچنین پلتفرم حسابرسی جهانی Omnia خود را گسترش داد و قابلیتهای «GenAI» را برای پشتیبانی از فرآیندهای تحلیل و گزارشدهی خود ادغام کرد. دیلویت تأیید کرد که تمام نتایج تولید شده توسط هوش مصنوعی باید قبل از انتشار توسط کارشناسان انسانی بررسی و تأیید شوند.
با این حال، کارشناسان معتقدند که تلاشهای دیلویت - اگرچه ضروری است - تنها اولین گام در سفری طولانی برای تنظیم رابطه بین انسان و فناوری در صنعت حسابرسی است. کارشناسان فایننشال تایمز هشدار میدهند که بسیاری از شرکتها بدون ایجاد سازوکارهای مشخص برای کنترل و ارزیابی تأثیر هوش مصنوعی، در حال «رقابت با آن» هستند. هوش مصنوعی در زمان صرفهجویی میکند، اما همچنین مرزهای بین کار انسان و ماشین را محو میکند - بهویژه در کارهایی که نیاز به قضاوت و تردید حرفهای دارند، که ذاتی کار حسابرسان است.
PwC - یکی دیگر از اعضای چهار شرکت بزرگ - برنامه آموزشی خود را برای کارمندان جدید به طور عمومی تنظیم کرده است: به جای انجام وظایف حسابرسی اولیه، آنها یاد میگیرند که چگونه "هوش مصنوعی را رصد کنند"، نتایج را تجزیه و تحلیل کنند و خطرات فناوری را ارزیابی کنند. به گفته Business Insider، این شرکت معتقد است که "حسابرسان آینده دیگر فقط نمیدانند چگونه اعداد را بخوانند، بلکه باید درک کنند که ماشینها چگونه فکر میکنند."

(عکس: راهول)
در همین حال، نهادهای نظارتی و سازمانهای حرفهای در حال بررسی صدور استانداردهای جدید برای «حسابرسی مبتنی بر هوش مصنوعی» هستند. هیئت استانداردهای بینالمللی حسابرسی و اطمینانبخشی (IAASB) در حال مطالعه افزودن راهنماییهای مربوط به استفاده از ابزارهای هوش مصنوعی در جمعآوری شواهد و گزارشدهی است. برخی از کارشناسان پیشنهاد میکنند که یک استاندارد حسابرسی جداگانه برای اطمینان از ثبات جهانی ایجاد شود.
این تحولات نشان میدهد که صنعت حسابرسی وارد دورهای از تحول عمیق میشود. فناوری را نمیتوان حذف کرد، اما کاربرد آن مستلزم احتیاط و کنترل دقیق است. در غیر این صورت، خطر از دست دادن کنترل میتواند باعث شود اعتماد به سیستم مالی - که قرنها حفظ شده است - تنها با چند کلیک از بین برود.
از منظر فرصت، هوش مصنوعی نویدبخش پیشرفتهای بیسابقهای است: توانایی پردازش میلیونها تراکنش در مدت زمان کوتاه، تشخیص کلاهبرداریهای پیچیدهای که تشخیص آنها برای انسانها دشوار است، و ایجاد مفهوم «ممیزی مداوم» - نظارت بر ریسک در زمان واقعی. شرکتهای Deloitte، PwC، KPMG و EY همگی سالانه صدها میلیون دلار برای توسعه سیستمهای هوش مصنوعی خود سرمایهگذاری میکنند.
با این حال، فرصتها تنها زمانی میتوانند به ارزش واقعی تبدیل شوند که با مسئولیتپذیری همراه باشند. درس دیلویت استرالیا نشان میدهد که فناوری میتواند روش کار ما را تغییر دهد، اما نمیتواند جایگزین اخلاق و راستیآزمایی انسانی شود. در دنیای حسابرسی مبتنی بر هوش مصنوعی، اعتماد همچنان بزرگترین دارایی است.
کارشناسان چندین درس مهم از پرونده Deloitte گرفتهاند:
- شفافیت مطلق در استفاده از هوش مصنوعی: هرگونه محتوایی که توسط ابزارهای هوش مصنوعی ایجاد یا پشتیبانی میشود، باید به وضوح برای مشتریان و مقامات نظارتی افشا شود.
- آموزش پیشرفته و مهارتهای نظارتی: حسابرسان باید نحوه کار هوش مصنوعی را درک کنند، محدودیتهای این فناوری را بدانند و بتوانند معقول بودن نتایج را ارزیابی کنند.
- ایجاد یک سازوکار حسابرسی برای هوش مصنوعی: نه تنها دادههای مالی، بلکه فرآیندها و مدلهای هوش مصنوعی نیز باید "بازرسی" شوند تا بیطرفی و شفافیت تضمین شود.
- رعایت اخلاق حرفهای: صرف نظر از میزان پیشرفت فناوری، اصل اساسی حسابرسی همچنان «استقلال، درستکاری و بیطرفی» است.
منبع: https://vtv.vn/nganh-kiem-toan-chan-dong-vi-ai-100251103192302453.htm






نظر (0)