بعد أن اضطرت شركة ديلويت إلى إعادة إصدار تقرير بقيمة 440 ألف دولار للحكومة الأسترالية بسبب خطأ خطير من الذكاء الاصطناعي، سارعت الشركات المنافسة في مجموعة "الأربعة الكبار"، بما في ذلك EY وKPMG وPwC ومجموعة بوسطن الاستشارية (BCG)، إلى التحدث للتأكيد على أن لديها عمليات تحكم صارمة لتجنب أخطاء مماثلة.
تواجه ديلويت الآن ضغوطًا شديدة بعد أن احتوى التقرير الأصلي على ثلاثة مراجع وهمية واقتباس مُلفّق من حكم صادر عن محكمة اتحادية. تحذف النسخة المُنقّحة أكثر من اثني عشر اقتباسًا خاطئًا وتُصحّح قائمة المراجع، مع بقاء التوصيات كما هي.
جذبت هذه القضية اهتمامًا دوليًا، وأصبحت مثالًا نموذجيًا على "الهلوسة" - عندما "يُصنّع" الذكاء الاصطناعي معلومات كما لو كانت حقيقية. ويطالب الرأي العام والخبراء حكومة رئيس الوزراء أنتوني ألبانيز بإجبار المستشارين على الإفصاح عن استخدامهم للذكاء الاصطناعي في عقود الدولة.
الشركات الأربع الكبرى تتسابق لإثبات "استخدامها للذكاء الاصطناعي بمسؤولية"
تُصرّ شركة EY على ضرورة مراجعة جميع النتائج المُولّدة بواسطة الذكاء الاصطناعي بدقة من قِبَل الموظفين قبل استخدامها. وتُشير شركة KPMG إلى أنها تمتلك "إطار عمل ثقة بالذكاء الاصطناعي" و"سجلًا عامًا للذكاء الاصطناعي" للأدوات التي تستخدمها في خدماتها، بما في ذلك مع العملاء الحكوميين.
وأكدت مجموعة بوسطن الاستشارية أن جميع منتجات الاستشارات تخضع "لفحص قيادي صارم"، في حين أكدت شركة برايس ووترهاوس كوبرز أنها تلتزم بمبدأ "البشر في الحلقة" - فالبشر هم المسؤولون في نهاية المطاف دائمًا عن المنتجات التي تتضمن الذكاء الاصطناعي.
رفضت شركتا ديلويت وماكينزي، اللتان تفتخران كثيرًا بقدراتهما في مجال الذكاء الاصطناعي، التعليق. ووافقت ديلويت على سداد بعض التكاليف لوزارة العمل والعلاقات الصناعية الأسترالية.

في جلسة استماع بمجلس الشيوخ، أكد جوردون دي بروير، رئيس الخدمة العامة الأسترالية، أن "الذكاء الاصطناعي ليس مسؤولاً عن عملكم. أنتم المسؤولون".
دعت السيناتور باربرا بوكوك، عضو مجلس الشيوخ عن حزب الخضر، الحكومة إلى إجبار المتعاقدين على الإفصاح علنًا عن استخدامهم للذكاء الاصطناعي والتحقق من جميع محتوياته. وقالت: "هذا ليس مجرد إهمال مصطنع، بل إهمال متعمد... عمل ديلويت لا يرقى إلى مستوى امتحان جامعي أول... إذا استمر المتعاقدون المتعاقدون لأداء أعمال حكومية في الاستعانة بمصادر خارجية لأعمال الذكاء الاصطناعي، فلا بد من وجود عمليات تدقيق. وهذا ليس طلبًا مبالغًا فيه".
قدمت السيدة بوكوك مشروع قانون لمنع المقاولين الذين ثبت تورطهم في سلوك غير أخلاقي من الحصول على عقود حكومية لمدة خمس سنوات ودعت إلى استرداد كامل المبالغ المدفوعة من ديلويت.
الذكاء الاصطناعي يدعم البشر ولا يحل محلهم
سارعت شركات الاستشارات الصغيرة أيضًا إلى طمأنة عملائها. صرّح ديفيد جاملي، الرئيس التنفيذي لشركة ADAPTOVATE، بأن شركته تستخدم الذكاء الاصطناعي لتحسين الكفاءة، ولكنه لن يغني أبدًا عن الخبرة البشرية.
وقالت ليزا كارلين، مستشارة أخرى - التي تدير شركة توربو تشارجرز التي يملكها شخص واحد - إن شركات الاستشارات تحتاج إلى وضع سياسة عامة بشأن استخدام الذكاء الاصطناعي، تشرح كيفية تطبيق التكنولوجيا في عملها، ولكن ليس بالضرورة الكشف عن تفاصيل التكنولوجيا المستخدمة.
قال كارلين: "أصبح الذكاء الاصطناعي الآن جزءًا من أدوات الأعمال القياسية، مثل إكسل، لكن الشركة لا تزال تتحمل المسؤولية الكاملة عن إدارة المخاطر. يجب أن تكون الشفافية على مستوى السياسات، وليس في كل تقرير، لأن ما يحتاجه العملاء هو الثقة في أن الشركة لديها ضوابط قوية، وليس مجرد تحذيرات في كل صفحة".
تقدم كارلين المشورة للعملاء من الشركات بشأن استراتيجية الذكاء الاصطناعي وتنفيذه، وتؤكد على أن كل تفاصيل التقرير، بغض النظر عن كيفية إنشائه، يجب فحصها بعناية قبل إرسالها إلى العميل.
وأضافت: "يجب أن تمتلك الشركات عمليات ضمان جودة خاصة بها للذكاء الاصطناعي، وتقييمًا واضحًا للمخاطر. لا عذر لـ"الذكاء الاصطناعي". يجب أن يكون الاستشاريون مسؤولين عن عملهم، تمامًا كما هو الحال مع المتدربين".
(وفقا لـ AFR)
المصدر: https://vietnamnet.vn/4-ong-lon-kiem-toan-len-tieng-sau-su-co-ai-nghiem-trong-tai-deloitte-2451266.html
تعليق (0)