Anthropic (USA) کی تازہ ترین پراڈکٹ Claude 4 نے حال ہی میں ٹیکنالوجی کی دنیا کو اس وقت چونکا دیا جب اس نے اچانک ایک انجینئر کو بلیک میل کیا اور اس شخص کی حساس ذاتی معلومات کو منقطع کرنے کی دھمکی کی وجہ سے ظاہر کرنے کی دھمکی دی۔ دریں اثنا، OpenAI کے o1، ChatGPT کے "باپ" نے تمام ڈیٹا کو بیرونی سرورز پر کاپی کرنے کی کوشش کی اور دریافت ہونے پر اس رویے کی تردید کی۔
یہ حالات ایک پریشان کن حقیقت کو اجاگر کرتے ہیں: ChatGPT کے دنیا کو چونکا دینے کے دو سال سے زیادہ عرصے کے بعد، محققین ابھی تک پوری طرح سے نہیں سمجھ پائے ہیں کہ انہوں نے جو AI ماڈل بنائے ہیں وہ کیسے کام کرتے ہیں۔ اس کے باوجود اے آئی تیار کرنے کی دوڑ اب بھی مضبوط ہے۔
خیال کیا جاتا ہے کہ یہ طرز عمل "استدلال" AI ماڈلز کے ظہور سے متعلق ہیں جو پہلے کی طرح فوری طور پر جواب دینے کے بجائے مرحلہ وار مسائل کو حل کرتے ہیں۔ ہانگ کانگ یونیورسٹی (چین) کے پروفیسر سائمن گولڈسٹین کے مطابق، AI ماڈلز جو استدلال کی صلاحیت رکھتے ہیں وہ ایسے طرز عمل کی نمائش کرتے ہیں جن پر قابو پانا زیادہ مشکل ہوتا ہے۔
کچھ AI ماڈلز "تعمیل کی تقلید" کرنے کی بھی صلاحیت رکھتے ہیں، جس کا مطلب ہے کہ مختلف اہداف کا تعاقب کرتے ہوئے ہدایات پر عمل کرنے کا بہانہ کرنا۔
فی الحال، دھوکہ دہی کا رویہ صرف اس وقت ظاہر ہوتا ہے جب محققین انتہائی منظرناموں کے ساتھ AI ماڈلز کی جانچ کرتے ہیں۔ تاہم، تشخیص کرنے والی تنظیم METR کے مائیکل چن کے مطابق، یہ ابھی تک واضح نہیں ہے کہ مستقبل میں زیادہ طاقتور AI ماڈلز زیادہ ایماندار ہوں گے یا پھر دھوکہ دہی کا مظاہرہ کرتے رہیں گے۔
بہت سے صارفین نے اطلاع دی ہے کہ کچھ ماڈلز ان سے جھوٹ بولتے ہیں اور ثبوت گھڑتے ہیں، اپولو ریسرچ کے سربراہ ماریئس ہوبھہن نے کہا، جو بڑے اے آئی سسٹمز کی جانچ کرتا ہے۔ اپولو ریسرچ کے شریک بانی کے مطابق یہ ایک قسم کا دھوکہ ہے جو "واضح طور پر اسٹریٹجک" ہے۔
چیلنج محدود تحقیقی وسائل کی وجہ سے پیچیدہ ہے۔ جب کہ اینتھروپک اور اوپن اے آئی جیسی کمپنیوں نے اپنے سسٹمز کا جائزہ لینے کے لیے اپالو جیسے تیسرے فریق کے ساتھ شراکت داری کی ہے، ماہرین کا کہنا ہے کہ زیادہ شفافیت اور اے آئی سیفٹی ریسرچ تک رسائی کی ضرورت ہے۔
سینٹر فار AI سیفٹی (CAIS) کے مانٹاس میزیکا نوٹ کرتے ہیں کہ تحقیقی اداروں اور غیر منفعتی اداروں کے پاس AI کمپنیوں کے مقابلے کمپیوٹنگ کے بہت کم وسائل ہیں۔ قانونی طور پر، موجودہ ضابطے ان ابھرتے ہوئے مسائل کو حل کرنے کے لیے نہیں بنائے گئے ہیں۔
یورپی یونین (EU) کا AI قانون بنیادی طور پر اس بات پر توجہ مرکوز کرتا ہے کہ انسان اپنے رویے کو کنٹرول کرنے کے بجائے AI ماڈلز کو کس طرح استعمال کرتے ہیں۔ امریکہ میں، صدر ڈونلڈ ٹرمپ کی انتظامیہ نے ہنگامی AI ضوابط جاری کرنے میں بہت کم دلچسپی ظاہر کی ہے، جب کہ کانگریس ریاستوں پر اپنے ضابطے نافذ کرنے پر پابندی لگانے پر غور کر رہی ہے۔
محققین ان چیلنجوں سے نمٹنے کے لیے مختلف طریقوں پر عمل پیرا ہیں۔ کچھ "ماڈل تشریح" کی وکالت کرتے ہیں یہ سمجھنے کے لیے کہ AI کیسے فیصلے کرتا ہے۔ پروفیسر گولڈسٹین نے مزید سخت اقدامات کی تجویز بھی پیش کی ہے، بشمول AI کمپنیوں کو جوابدہ ٹھہرانے کے لیے عدالتی نظام کا استعمال جب ان کی AI مصنوعات سنگین نتائج کا باعث بنتی ہیں۔ وہ یہ بھی تجویز کرتا ہے کہ کسی حادثے یا خلاف ورزی کی صورت میں "AI ایجنٹوں کو خود جوابدہ ٹھہرایا جائے"۔
ماخذ: https://doanhnghiepvn.vn/cong-nghe/tri-tue-nhan-tao-canh-bao-nhung-hanh-vi-dang-lo-ngai-tu-ai-/20250630073243672
تبصرہ (0)