কৃত্রিম বুদ্ধিমত্তা (AI) থেকে গুরুতর ত্রুটির কারণে ডেলয়েটকে অস্ট্রেলিয়ান সরকারকে $440,000 এর প্রতিবেদন পুনরায় জারি করতে হওয়ার পর, EY, KPMG, PwC এবং Boston Consulting Group (BCG) সহ "Big 4" গ্রুপের প্রতিযোগীরা দ্রুত কথা বলে নিশ্চিত করে যে অনুরূপ ত্রুটি এড়াতে তাদের কঠোর নিয়ন্ত্রণ প্রক্রিয়া রয়েছে।

মূল প্রতিবেদনে তিনটি কাল্পনিক তথ্যসূত্র এবং ফেডারেল আদালতের রায় থেকে একটি বানোয়াট উদ্ধৃতি থাকার পর ডেলয়েট এখন তীব্র চাপের সম্মুখীন হচ্ছে। সংশোধিত সংস্করণে এক ডজনেরও বেশি ভুল উদ্ধৃতি মুছে ফেলা হয়েছে এবং গ্রন্থপঞ্জি সংশোধন করা হয়েছে, যদিও সুপারিশগুলি একই রয়ে গেছে।

এই মামলাটি আন্তর্জাতিক মনোযোগ আকর্ষণ করেছে, "হ্যালুসিনেশন"-এর একটি সাধারণ উদাহরণ হয়ে উঠেছে - যখন AI তথ্যকে "বানোয়াট" করে যেন এটি বাস্তব। জনমত এবং বিশেষজ্ঞরা দাবি করছেন যে প্রধানমন্ত্রী অ্যান্থনি আলবানিজের সরকার পরামর্শদাতাদের রাষ্ট্রীয় চুক্তিতে AI ব্যবহার করার সময় তা প্রকাশ করতে বাধ্য করবে।

"দায়িত্বের সাথে কৃত্রিম বুদ্ধিমত্তা ব্যবহার করে" তা প্রমাণের জন্য বিগ ফোরের প্রতিযোগিতা

EY জোর দিয়ে বলে যে সমস্ত AI-উত্পাদিত ফলাফল ব্যবহারের আগে কর্মীদের দ্বারা পুঙ্খানুপুঙ্খভাবে পর্যালোচনা করা উচিত। KPMG বলে যে তাদের একটি "AI ট্রাস্ট ফ্রেমওয়ার্ক" এবং একটি পাবলিক "AI রেজিস্ট্রি" রয়েছে যা তারা তাদের পরিষেবাগুলিতে, সরকারি ক্লায়েন্টদের সাথে সহ, ব্যবহার করে।

বিসিজি জোর দিয়ে বলেছে যে সমস্ত পরামর্শক পণ্য "কঠোর নেতৃত্ব যাচাই" এর মধ্য দিয়ে যায়, অন্যদিকে পিডব্লিউসি জোর দিয়ে বলেছে যে এটি "মানুষের মধ্যে লুপ" নীতি মেনে চলে - মানুষই সর্বদা কৃত্রিম বুদ্ধিমত্তার সাথে সম্পর্কিত পণ্যের জন্য চূড়ান্তভাবে দায়ী।

ডেলয়েট এবং ম্যাককিনসে, দুটি সংস্থা যারা প্রায়শই তাদের এআই ক্ষমতা নিয়ে গর্ব করে, তারা মন্তব্য করতে অস্বীকৃতি জানিয়েছে। ডেলয়েট অস্ট্রেলিয়ান কর্মসংস্থান ও শিল্প সম্পর্ক বিভাগকে কিছু খরচ পরিশোধ করতে সম্মত হয়েছে।

ডেলয়েট আফ্রিকা
প্রতিবেদন লেখার সময় এআই "তথ্য জাল" করার কেলেঙ্কারিতে জড়িয়ে পড়ে ডেলয়েট। ছবি: এএফআর

সিনেটের এক শুনানিতে অস্ট্রেলিয়ান পাবলিক সার্ভিসের প্রধান গর্ডন ডি ব্রাউয়ার জোর দিয়ে বলেন: "আপনার কাজের জন্য কৃত্রিম বুদ্ধিমত্তা দায়ী নয়। আপনিই দায়ী।"

গ্রিনস সিনেটর বারবারা পোকক সরকারের প্রতি আহ্বান জানিয়েছেন যে ঠিকাদারদের তাদের AI ব্যবহার প্রকাশ্যে প্রকাশ করতে এবং AI-উত্পাদিত সমস্ত বিষয়বস্তু যাচাই করতে বাধ্য করা হোক। "এটি কেবল কৃত্রিম অবহেলা নয়, এটি ইচ্ছাকৃত অবহেলা... ডেলয়েটের কাজ প্রথম বর্ষের বিশ্ববিদ্যালয়ের পরীক্ষার মান অনুযায়ী নয়... যদি সরকারি কাজ করার জন্য নিযুক্ত ঠিকাদাররা AI কাজ আউটসোর্স করেই চলে, তাহলে সেখানে নজরদারি থাকা দরকার। এটা খুব বেশি কিছু নয়," তিনি বলেন।

মিস পোকক পাঁচ বছরের জন্য সরকারি চুক্তি থেকে অনৈতিক আচরণে জড়িত ঠিকাদারদের নিষিদ্ধ করার জন্য আইন প্রণয়ন করেছেন এবং ডেলয়েটের কাছ থেকে সম্পূর্ণ অর্থ ফেরতের আহ্বান জানিয়েছেন।

AI মানুষকে সমর্থন করে, প্রতিস্থাপন করে না

ছোট পরামর্শদাতা সংস্থাগুলিও দ্রুত ক্লায়েন্টদের আশ্বস্ত করেছিল। ADAPTOVATE-এর সিইও ডেভিড গামলে বলেছেন যে তারা দক্ষতা উন্নত করার জন্য AI ব্যবহার করছেন, কিন্তু এটি কখনই মানুষের দক্ষতার স্থান নিতে পারবে না।

আরেকজন পরামর্শদাতা, লিসা কার্লিন - যিনি এক-ব্যক্তি সংস্থা দ্য টার্বোচার্জার্স পরিচালনা করেন - বলেছেন যে পরামর্শদাতা সংস্থাগুলির AI ব্যবহারের বিষয়ে একটি পাবলিক নীতি থাকা দরকার, যেখানে তাদের কাজে প্রযুক্তি কীভাবে প্রয়োগ করা হয় তা ব্যাখ্যা করা উচিত, তবে ব্যবহৃত প্রযুক্তির বিশদ প্রকাশ করা আবশ্যক নয়।

"এআই এখন এক্সেলের মতো স্ট্যান্ডার্ড ব্যবসায়িক সরঞ্জামগুলির অংশ, কিন্তু ঝুঁকি ব্যবস্থাপনার জন্য এখনও কোম্পানির সম্পূর্ণ দায়িত্ব রয়েছে," কার্লিন বলেন। "স্বচ্ছতা নীতিগত স্তরে হওয়া উচিত, প্রতিটি প্রতিবেদনে নয়, কারণ গ্রাহকদের যা প্রয়োজন তা হল আস্থা যে কোম্পানির শক্তিশালী নিয়ন্ত্রণ রয়েছে, প্রতিটি পৃষ্ঠায় একটি সতর্কতা রেখা নয়।"

কার্লিন কর্পোরেট ক্লায়েন্টদের AI কৌশল এবং বাস্তবায়ন সম্পর্কে পরামর্শ দেন এবং তিনি জোর দিয়ে বলেন যে একটি প্রতিবেদনের প্রতিটি বিবরণ, তা কীভাবে তৈরি করা হয়েছে তা নির্বিশেষে, ক্লায়েন্টের কাছে পাঠানোর আগে সাবধানে যাচাই করা উচিত।

"কোম্পানিগুলির AI-এর জন্য নিজস্ব মান নিশ্চিতকরণ প্রক্রিয়া এবং একটি স্পষ্ট ঝুঁকি মূল্যায়ন থাকা দরকার," তিনি আরও যোগ করেন। "'AI-উত্পাদিত'-এর কোনও অজুহাত নেই। পরামর্শদাতাদের তাদের কাজের জন্য জবাবদিহি করতে হবে, ঠিক যেমন তারা একজন ইন্টার্নের জন্য করেন।"

(এএফআর অনুসারে)

সূত্র: https://vietnamnet.vn/4-ong-lon-kiem-toan-len-tieng-sau-su-co-ai-nghiem-trong-tai-deloitte-2451266.html