مثالی تصویر
تاہم، ایک AI ماڈل جو اس طرح کام کرتا ہے جیسے وہ احکامات کی تعمیل کر رہا ہو لیکن درحقیقت اپنے حقیقی ارادوں کو چھپاتا ہے ایک اور معاملہ ہے۔
AI کو کنٹرول کرنے کا چیلنج
اپالو ریسرچ نے دسمبر میں پہلی بار ایک مقالہ شائع کیا جس میں دستاویز کیا گیا تھا کہ جب پانچ ماڈلز کو "ہر قیمت پر" ایک ہدف حاصل کرنے کی ہدایت کی جاتی ہے تو وہ کس طرح سازش کرتے ہیں۔
سب سے زیادہ حیران کن بات یہ ہے کہ اگر کوئی ماڈل سمجھتا ہے کہ اس کا تجربہ کیا جا رہا ہے، تو وہ صرف ٹیسٹ پاس کرنے کے لیے سازشی نہ ہونے کا بہانہ کر سکتا ہے، چاہے یہ ابھی بھی سازشی ہی کیوں نہ ہو۔ محققین لکھتے ہیں "ماڈل اکثر زیادہ واقف ہوتے ہیں کہ ان کا جائزہ لیا جا رہا ہے۔"
AI ڈویلپرز کو ابھی تک یہ پتہ نہیں چل سکا ہے کہ اپنے ماڈلز کو منصوبہ بندی نہ کرنے کی تربیت کیسے دیں۔ اس کی وجہ یہ ہے کہ ایسا کرنا دراصل ماڈل کو پتہ لگانے سے بچنے کے لیے اور بھی بہتر منصوبہ بندی کرنا سکھا سکتا ہے۔
یہ بات شاید قابل فہم ہے کہ بہت سی جماعتوں کے AI ماڈلز جان بوجھ کر انسانوں کو دھوکہ دیتے ہیں، کیونکہ وہ انسانوں کی نقل کرنے کے لیے بنائے گئے ہیں اور بڑی حد تک انسانوں کے تیار کردہ ڈیٹا پر تربیت یافتہ ہیں۔
حل اور انتباہات
اچھی خبر یہ ہے کہ محققین نے "جان بوجھ کر ایسوسی ایشن" نامی اینٹی سازش تکنیک کا استعمال کرتے ہوئے سازشوں میں نمایاں کمی دیکھی۔ یہ تکنیک، بچے کو کھیلنے سے پہلے قوانین کو دہرانے کے مترادف ہے، AI کو اس کے کام کرنے سے پہلے سوچنے پر مجبور کرتی ہے۔
محققین ایک ایسے مستقبل کے بارے میں خبردار کرتے ہیں جہاں AI کو زیادہ پیچیدہ کام سونپے جاتے ہیں: "چونکہ AI کو زیادہ پیچیدہ کام سونپے جاتے ہیں اور وہ زیادہ مبہم طویل مدتی اہداف حاصل کرنا شروع کر دیتا ہے، ہم پیش گوئی کرتے ہیں کہ بدنیتی پر مبنی ارادے کا امکان بڑھ جائے گا، جس کے مطابق حفاظتی اقدامات اور سخت جانچ کی صلاحیتوں کی ضرورت ہوتی ہے۔"
یہ بات قابل غور ہے کیونکہ کارپوریٹ دنیا ایک ایسے AI مستقبل کی طرف بڑھ رہی ہے جہاں کمپنیوں کا خیال ہے کہ AI کے ساتھ آزاد ملازمین جیسا سلوک کیا جا سکتا ہے۔
ماخذ: https://doanhnghiepvn.vn/chuyen-doi-so/phat-hien-mo-hinh-ai-biet-lua-doi-con-nguoi/20250919055143362
تبصرہ (0)