پس از آنکه شرکت Deloitte به دلیل خطای جدی هوش مصنوعی (AI) مجبور به صدور مجدد گزارش ۴۴۰،۰۰۰ دلاری به دولت استرالیا شد، رقبای این شرکت در گروه «Big 4» شامل EY، KPMG، PwC و گروه مشاوره بوستون (BCG) به سرعت اعلام کردند که فرآیندهای کنترلی دقیقی برای جلوگیری از خطاهای مشابه دارند.

شرکت دیلویت اکنون پس از آنکه گزارش اولیه حاوی سه ارجاع ساختگی و یک نقل قول ساختگی از حکم دادگاه فدرال بود، با فشار شدیدی روبرو شده است. نسخه اصلاح‌شده بیش از دوازده نقل قول اشتباه را حذف کرده و فهرست منابع را اصلاح کرده است، اگرچه توصیه‌ها همچنان به قوت خود باقی هستند.

این پرونده توجه بین‌المللی را به خود جلب کرده و به نمونه‌ای بارز از «توهم» تبدیل شده است - زمانی که هوش مصنوعی اطلاعات را طوری «جعل» می‌کند که گویی واقعی هستند. افکار عمومی و کارشناسان از دولت نخست وزیر آنتونی آلبانیز می‌خواهند که مشاوران را مجبور کند هنگام استفاده از هوش مصنوعی در قراردادهای ایالتی، این موضوع را فاش کنند.

رقابت چهار غول بزرگ برای اثبات «استفاده مسئولانه از هوش مصنوعی»

شرکت EY اصرار دارد که تمام نتایج تولید شده توسط هوش مصنوعی باید قبل از استفاده توسط کارمندان به طور کامل بررسی شوند. KPMG می‌گوید که یک «چارچوب اعتماد هوش مصنوعی» و یک «ثبت هوش مصنوعی» عمومی از ابزارهایی که در خدمات خود، از جمله با مشتریان دولتی، استفاده می‌کند، دارد.

BCG تأکید کرد که تمام محصولات مشاوره‌ای تحت «بررسی دقیق رهبری» قرار می‌گیرند، در حالی که PwC تأکید کرد که به اصل «انسان در حلقه» پایبند است - انسان‌ها همیشه مسئول نهایی محصولاتی هستند که شامل هوش مصنوعی می‌شوند.

شرکت‌های Deloitte و McKinsey، دو شرکتی که اغلب به قابلیت‌های هوش مصنوعی خود می‌بالند، از اظهار نظر خودداری کردند. Deloitte موافقت کرده است که برخی از هزینه‌ها را به وزارت اشتغال و روابط صنعتی استرالیا بازپرداخت کند.

دیلویت اف آر
شرکت Deloitte در رسوایی مربوط به «جعل اطلاعات» توسط هوش مصنوعی هنگام نوشتن گزارش‌ها گرفتار شد. عکس: AFR

گوردون دی براور، رئیس خدمات عمومی استرالیا، در جلسه استماع سنا تأکید کرد: «هوش مصنوعی مسئول کار شما نیست. شما مسئول هستید.»

سناتور باربارا پوکاک از حزب سبزها از دولت خواست تا پیمانکاران را مجبور کند تا استفاده خود از هوش مصنوعی را علناً افشا کنند و تمام محتوای تولید شده توسط هوش مصنوعی را تأیید کنند. او گفت: «این فقط سهل‌انگاری مصنوعی نیست، بلکه سهل‌انگاری عمدی است... کار دیلویت در حد استاندارد یک امتحان سال اول دانشگاه نیست... اگر پیمانکارانی که برای انجام کارهای دولتی استخدام شده‌اند، قرار است به برون‌سپاری کار هوش مصنوعی ادامه دهند، باید بررسی‌هایی انجام شود. این خواسته‌ی زیادی نیست.»

خانم پوکاک قانونی را برای ممنوعیت پنج ساله پیمانکارانی که مرتکب رفتار غیراخلاقی شده‌اند از قراردادهای دولتی ارائه کرده و خواستار بازپرداخت کامل از سوی شرکت دیلویت شده است.

هوش مصنوعی از انسان‌ها پشتیبانی می‌کند، نه جایگزین آنها

شرکت‌های مشاوره‌ای کوچک‌تر نیز به سرعت به مشتریان خود اطمینان خاطر دادند. دیوید گاملی، مدیرعامل ADAPTOVATE، گفت که آنها از هوش مصنوعی برای بهبود کارایی استفاده می‌کنند، اما هرگز جایگزین تخصص انسانی نخواهد شد.

لیزا کارلین، مشاور دیگری که شرکت تک‌نفره «توربوچارجرز» را اداره می‌کند، گفت که شرکت‌های مشاوره‌ای باید یک سیاست عمومی در مورد استفاده از هوش مصنوعی داشته باشند که توضیح دهد چگونه این فناوری در کارشان به کار گرفته می‌شود، اما لزوماً جزئیات فناوری مورد استفاده را فاش نکند.

کارلین گفت: «هوش مصنوعی اکنون بخشی از ابزارهای استاندارد کسب‌وکار، مانند اکسل، است، اما شرکت هنوز مسئولیت کامل مدیریت ریسک را بر عهده دارد.» «شفافیت باید در سطح سیاست‌گذاری باشد، نه در هر گزارش، زیرا آنچه مشتریان نیاز دارند، اطمینان از این است که شرکت کنترل‌های قوی دارد، نه یک خط هشدار در هر صفحه.»

کارلین به مشتریان شرکتی در مورد استراتژی و پیاده‌سازی هوش مصنوعی مشاوره می‌دهد و تأکید می‌کند که هر جزئیات در یک گزارش، صرف نظر از نحوه ایجاد آن، باید قبل از ارسال به مشتری با دقت بررسی شود.

او افزود: «شرکت‌ها باید فرآیندهای تضمین کیفیت مخصوص به خود را برای هوش مصنوعی و ارزیابی ریسک واضحی داشته باشند . هیچ بهانه‌ای برای «تولید شده توسط هوش مصنوعی» وجود ندارد. مشاوران باید در قبال کار خود پاسخگو باشند، درست همانطور که در قبال یک کارآموز پاسخگو هستند.»

(طبق گزارش AFR)

منبع: https://vietnamnet.vn/4-ong-lon-kiem-toan-len-tieng-sau-su-co-ai-nghiem-trong-tai-deloitte-2451266.html