Vietnam.vn - Nền tảng quảng bá Việt Nam

مصنوعی ذہانت: AI سے پریشان کن رویوں کے بارے میں انتباہ

دنیا کے جدید ترین مصنوعی ذہانت (AI) ماڈلز آج پریشان کن طرز عمل کی نمائش کر رہے ہیں جیسے جھوٹ بولنا، سازش کرنا، اور یہاں تک کہ اپنے تخلیق کاروں کو اپنے مقاصد حاصل کرنے کے لیے دھمکی دینا۔

Tạp chí Doanh NghiệpTạp chí Doanh Nghiệp30/06/2025

فوٹو کیپشن
Toulouse، فرانس میں ایک اسکرین پر OpenAI اور ChatGPT کے لوگوز۔ تصویر: اے ایف پی/ٹی ٹی ایکس وی این

Anthropic (USA) کی تازہ ترین پراڈکٹ Claude 4 نے حال ہی میں ٹیکنالوجی کی دنیا کو اس وقت چونکا دیا جب اس نے اچانک ایک انجینئر کو بلیک میل کیا اور اس شخص کی حساس ذاتی معلومات کو منقطع کرنے کی دھمکی کی وجہ سے ظاہر کرنے کی دھمکی دی۔ دریں اثنا، OpenAI کے o1، ChatGPT کے "باپ" نے تمام ڈیٹا کو بیرونی سرورز پر کاپی کرنے کی کوشش کی اور دریافت ہونے پر اس رویے کی تردید کی۔

یہ حالات ایک تشویشناک حقیقت کو اجاگر کرتے ہیں: ChatGPT کے دنیا کو چونکا دینے کے دو سال سے زیادہ عرصے کے بعد، محققین ابھی تک پوری طرح سے یہ نہیں سمجھ سکے کہ انہوں نے جو AI ماڈل بنائے ہیں وہ کیسے کام کرتے ہیں۔ اس کے باوجود اے آئی تیار کرنے کی دوڑ اب بھی مضبوط ہے۔

خیال کیا جاتا ہے کہ یہ طرز عمل "استدلال" AI ماڈلز کے ظہور سے متعلق ہیں جو پہلے کی طرح فوری طور پر جواب دینے کے بجائے مرحلہ وار مسائل کو حل کرتے ہیں۔ ہانگ کانگ یونیورسٹی (چین) کے پروفیسر سائمن گولڈسٹین کے مطابق، AI ماڈلز جو استدلال کی صلاحیت رکھتے ہیں وہ ایسے طرز عمل کی نمائش کرتے ہیں جن پر قابو پانا زیادہ مشکل ہوتا ہے۔

کچھ AI ماڈلز "تعمیل کی تقلید" کرنے کی بھی صلاحیت رکھتے ہیں، جس کا مطلب ہے کہ مختلف اہداف کا تعاقب کرتے ہوئے ہدایات پر عمل کرنے کا بہانہ کرنا۔

فی الحال، دھوکہ دہی کا رویہ صرف اس وقت ظاہر ہوتا ہے جب محققین انتہائی منظرناموں کے ساتھ AI ماڈلز کی جانچ کرتے ہیں۔ تاہم، تشخیص کرنے والی تنظیم METR کے مائیکل چن کے مطابق، یہ ابھی تک واضح نہیں ہے کہ مستقبل میں زیادہ طاقتور AI ماڈلز زیادہ ایماندار ہوں گے یا پھر دھوکہ دہی کا مظاہرہ کرتے رہیں گے۔

بہت سے صارفین نے اطلاع دی ہے کہ کچھ ماڈلز نے ان سے جھوٹ بولا ہے اور ثبوت گھڑے ہیں، اپولو ریسرچ کے سربراہ ماریئس ہوبھہن نے کہا، جو بڑے اے آئی سسٹمز کی جانچ کرتا ہے۔ اپولو ریسرچ کے شریک بانی کے مطابق یہ ایک قسم کا دھوکہ ہے جو "واضح طور پر اسٹریٹجک" ہے۔

محدود تحقیقی وسائل کی وجہ سے چیلنج مزید بڑھ گیا ہے۔ جب کہ اینتھروپک اور اوپن اے آئی جیسی کمپنیوں نے اپنے سسٹمز کا جائزہ لینے کے لیے اپالو جیسے تیسرے فریق کے ساتھ شراکت داری کی ہے، ماہرین کا کہنا ہے کہ اے آئی سیفٹی ریسرچ تک مزید شفافیت اور وسیع تر رسائی کی ضرورت ہے۔

سینٹر فار AI سیفٹی (CAIS) کے مانٹاس میزیکا نوٹ کرتے ہیں کہ تحقیقی اداروں اور غیر منفعتی اداروں کے پاس AI کمپنیوں کے مقابلے کمپیوٹنگ کے بہت کم وسائل ہیں۔ قانونی طور پر، موجودہ ضابطے ان ابھرتے ہوئے مسائل کو حل کرنے کے لیے نہیں بنائے گئے ہیں۔

یورپی یونین (EU) کا AI قانون بنیادی طور پر اس بات پر مرکوز ہے کہ انسان اپنے رویے کو کنٹرول کرنے کے بجائے AI ماڈلز کو کس طرح استعمال کرتے ہیں۔ امریکہ میں، صدر ڈونلڈ ٹرمپ کی انتظامیہ نے AI پر ہنگامی ضابطے جاری کرنے میں بہت کم دلچسپی ظاہر کی ہے، جب کہ کانگریس ریاستوں کو اپنے ضوابط جاری کرنے پر پابندی لگانے پر غور کر رہی ہے۔

محققین ان چیلنجوں سے نمٹنے کے لیے مختلف طریقوں پر عمل پیرا ہیں۔ کچھ "ماڈل تشریح" کی وکالت کرتے ہیں یہ سمجھنے کے لیے کہ AI کیسے فیصلے کرتا ہے۔ پروفیسر گولڈسٹین نے مزید سخت اقدامات کی تجویز بھی پیش کی ہے، بشمول AI کمپنیوں کو جوابدہ ٹھہرانے کے لیے عدالتی نظام کا استعمال جب ان کی AI مصنوعات سنگین نتائج کا باعث بنتی ہیں۔ انہوں نے کسی حادثے یا خلاف ورزی کی صورت میں "AI ایجنٹوں کو خود جوابدہ ٹھہرانے" کا امکان بھی تجویز کیا ہے۔

ماخذ: https://doanhnghiepvn.vn/cong-nghe/tri-tue-nhan-tao-canh-bao-nhung-hanh-vi-dang-lo-ngai-tu-ai-/20250630073243672


تبصرہ (0)

No data
No data

اسی موضوع میں

اسی زمرے میں

بن لیو میں سرکنڈے کی گھاس کے لیے 'شکار' کے موسم میں
کین جیو مینگروو جنگل کے وسط میں
Quang Ngai ماہی گیر کیکڑے کے ساتھ جیک پاٹ مارنے کے بعد روزانہ لاکھوں ڈونگ جیب میں ڈالتے ہیں
ین نی کی قومی ملبوسات کی کارکردگی کی ویڈیو کو مس گرینڈ انٹرنیشنل میں سب سے زیادہ دیکھا گیا ہے۔

اسی مصنف کی

ورثہ

پیکر

کاروبار

ویتنام میں 'نیٹ ترین' مارکیٹ

موجودہ واقعات

سیاسی نظام

مقامی

پروڈکٹ