پس از آنکه شرکت Deloitte به دلیل خطای جدی هوش مصنوعی (AI) مجبور به صدور مجدد گزارش ۴۴۰،۰۰۰ دلاری به دولت استرالیا شد، رقبای این شرکت در گروه «Big 4» شامل EY، KPMG، PwC و گروه مشاوره بوستون (BCG) به سرعت اعلام کردند که فرآیندهای کنترلی دقیقی برای جلوگیری از خطاهای مشابه دارند.
شرکت دیلویت اکنون پس از آنکه گزارش اولیه حاوی سه ارجاع ساختگی و یک نقل قول ساختگی از حکم دادگاه فدرال بود، با فشار شدیدی روبرو شده است. نسخه اصلاحشده بیش از دوازده نقل قول اشتباه را حذف کرده و فهرست منابع را اصلاح کرده است، اگرچه توصیهها همچنان به قوت خود باقی هستند.
این پرونده توجه بینالمللی را به خود جلب کرده و به نمونهای بارز از «توهم» تبدیل شده است - زمانی که هوش مصنوعی اطلاعات را طوری «جعل» میکند که گویی واقعی هستند. افکار عمومی و کارشناسان از دولت نخست وزیر آنتونی آلبانیز میخواهند که مشاوران را مجبور کند هنگام استفاده از هوش مصنوعی در قراردادهای ایالتی، این موضوع را فاش کنند.
رقابت چهار غول بزرگ برای اثبات «استفاده مسئولانه از هوش مصنوعی»
شرکت EY اصرار دارد که تمام نتایج تولید شده توسط هوش مصنوعی باید قبل از استفاده توسط کارمندان به طور کامل بررسی شوند. KPMG میگوید که یک «چارچوب اعتماد هوش مصنوعی» و یک «ثبت هوش مصنوعی» عمومی از ابزارهایی که در خدمات خود، از جمله با مشتریان دولتی، استفاده میکند، دارد.
BCG تأکید کرد که تمام محصولات مشاورهای تحت «بررسی دقیق رهبری» قرار میگیرند، در حالی که PwC تأکید کرد که به اصل «انسان در حلقه» پایبند است - انسانها همیشه مسئول نهایی محصولاتی هستند که شامل هوش مصنوعی میشوند.
شرکتهای Deloitte و McKinsey، دو شرکتی که اغلب به قابلیتهای هوش مصنوعی خود میبالند، از اظهار نظر خودداری کردند. Deloitte موافقت کرده است که برخی از هزینهها را به وزارت اشتغال و روابط صنعتی استرالیا بازپرداخت کند.

گوردون دی براور، رئیس خدمات عمومی استرالیا، در جلسه استماع سنا تأکید کرد: «هوش مصنوعی مسئول کار شما نیست. شما مسئول هستید.»
سناتور باربارا پوکاک از حزب سبزها از دولت خواست تا پیمانکاران را مجبور کند تا استفاده خود از هوش مصنوعی را علناً افشا کنند و تمام محتوای تولید شده توسط هوش مصنوعی را تأیید کنند. او گفت: «این فقط سهلانگاری مصنوعی نیست، بلکه سهلانگاری عمدی است... کار دیلویت در حد استاندارد یک امتحان سال اول دانشگاه نیست... اگر پیمانکارانی که برای انجام کارهای دولتی استخدام شدهاند، قرار است به برونسپاری کار هوش مصنوعی ادامه دهند، باید بررسیهایی انجام شود. این خواستهی زیادی نیست.»
خانم پوکاک قانونی را برای ممنوعیت پنج ساله پیمانکارانی که مرتکب رفتار غیراخلاقی شدهاند از قراردادهای دولتی ارائه کرده و خواستار بازپرداخت کامل از سوی شرکت دیلویت شده است.
هوش مصنوعی از انسانها پشتیبانی میکند، نه جایگزین آنها
شرکتهای مشاورهای کوچکتر نیز به سرعت به مشتریان خود اطمینان خاطر دادند. دیوید گاملی، مدیرعامل ADAPTOVATE، گفت که آنها از هوش مصنوعی برای بهبود کارایی استفاده میکنند، اما هرگز جایگزین تخصص انسانی نخواهد شد.
لیزا کارلین، مشاور دیگری که شرکت تکنفره «توربوچارجرز» را اداره میکند، گفت که شرکتهای مشاورهای باید یک سیاست عمومی در مورد استفاده از هوش مصنوعی داشته باشند که توضیح دهد چگونه این فناوری در کارشان به کار گرفته میشود، اما لزوماً جزئیات فناوری مورد استفاده را فاش نکند.
کارلین گفت: «هوش مصنوعی اکنون بخشی از ابزارهای استاندارد کسبوکار، مانند اکسل، است، اما شرکت هنوز مسئولیت کامل مدیریت ریسک را بر عهده دارد.» «شفافیت باید در سطح سیاستگذاری باشد، نه در هر گزارش، زیرا آنچه مشتریان نیاز دارند، اطمینان از این است که شرکت کنترلهای قوی دارد، نه یک خط هشدار در هر صفحه.»
کارلین به مشتریان شرکتی در مورد استراتژی و پیادهسازی هوش مصنوعی مشاوره میدهد و تأکید میکند که هر جزئیات در یک گزارش، صرف نظر از نحوه ایجاد آن، باید قبل از ارسال به مشتری با دقت بررسی شود.
او افزود: «شرکتها باید فرآیندهای تضمین کیفیت مخصوص به خود را برای هوش مصنوعی و ارزیابی ریسک واضحی داشته باشند . هیچ بهانهای برای «تولید شده توسط هوش مصنوعی» وجود ندارد. مشاوران باید در قبال کار خود پاسخگو باشند، درست همانطور که در قبال یک کارآموز پاسخگو هستند.»
(طبق گزارش AFR)
منبع: https://vietnamnet.vn/4-ong-lon-kiem-toan-len-tieng-sau-su-co-ai-nghiem-trong-tai-deloitte-2451266.html
نظر (0)