Vietnam.vn - Nền tảng quảng bá Việt Nam

Độc lập - Tự do - Hạnh phúc

مصنوعی ذہانت: AI سے پریشان کن رویوں کے بارے میں انتباہ

دنیا کے جدید ترین مصنوعی ذہانت (AI) ماڈلز آج پریشان کن طرز عمل کی نمائش کر رہے ہیں جیسے جھوٹ بولنا، سازش کرنا، اور یہاں تک کہ اپنے تخلیق کاروں کو اپنے مقاصد حاصل کرنے کے لیے دھمکی دینا۔

Tạp chí Doanh NghiệpTạp chí Doanh Nghiệp30/06/2025

فوٹو کیپشن
Toulouse، فرانس میں ایک اسکرین پر OpenAI اور ChatGPT کے لوگوز۔ تصویر: اے ایف پی/ٹی ٹی ایکس وی این

Anthropic (USA) کی تازہ ترین پراڈکٹ Claude 4 نے حال ہی میں ٹیکنالوجی کی دنیا کو اس وقت چونکا دیا جب اس نے اچانک ایک انجینئر کو بلیک میل کیا اور اس شخص کی حساس ذاتی معلومات کو منقطع کرنے کی دھمکی کی وجہ سے ظاہر کرنے کی دھمکی دی۔ دریں اثنا، OpenAI کے o1، ChatGPT کے "باپ" نے تمام ڈیٹا کو بیرونی سرورز پر کاپی کرنے کی کوشش کی اور دریافت ہونے پر اس رویے کی تردید کی۔

یہ حالات ایک پریشان کن حقیقت کو اجاگر کرتے ہیں: ChatGPT کے دنیا کو چونکا دینے کے دو سال سے زیادہ عرصے کے بعد، محققین ابھی تک پوری طرح سے نہیں سمجھ پائے ہیں کہ انہوں نے جو AI ماڈل بنائے ہیں وہ کیسے کام کرتے ہیں۔ اس کے باوجود اے آئی تیار کرنے کی دوڑ اب بھی مضبوط ہے۔

خیال کیا جاتا ہے کہ یہ طرز عمل "استدلال" AI ماڈلز کے ظہور سے متعلق ہیں جو پہلے کی طرح فوری طور پر جواب دینے کے بجائے مرحلہ وار مسائل کو حل کرتے ہیں۔ ہانگ کانگ یونیورسٹی (چین) کے پروفیسر سائمن گولڈسٹین کے مطابق، AI ماڈلز جو استدلال کی صلاحیت رکھتے ہیں وہ ایسے طرز عمل کی نمائش کرتے ہیں جن پر قابو پانا زیادہ مشکل ہوتا ہے۔

کچھ AI ماڈلز "تعمیل کی تقلید" کرنے کی بھی صلاحیت رکھتے ہیں، جس کا مطلب ہے کہ مختلف اہداف کا تعاقب کرتے ہوئے ہدایات پر عمل کرنے کا بہانہ کرنا۔

فی الحال، دھوکہ دہی کا رویہ صرف اس وقت ظاہر ہوتا ہے جب محققین انتہائی منظرناموں کے ساتھ AI ماڈلز کی جانچ کرتے ہیں۔ تاہم، تشخیص کرنے والی تنظیم METR کے مائیکل چن کے مطابق، یہ ابھی تک واضح نہیں ہے کہ مستقبل میں زیادہ طاقتور AI ماڈلز زیادہ ایماندار ہوں گے یا پھر دھوکہ دہی کا مظاہرہ کرتے رہیں گے۔

بہت سے صارفین نے اطلاع دی ہے کہ کچھ ماڈلز ان سے جھوٹ بولتے ہیں اور ثبوت گھڑتے ہیں، اپولو ریسرچ کے سربراہ ماریئس ہوبھہن نے کہا، جو بڑے اے آئی سسٹمز کی جانچ کرتا ہے۔ اپولو ریسرچ کے شریک بانی کے مطابق یہ ایک قسم کا دھوکہ ہے جو "واضح طور پر اسٹریٹجک" ہے۔

چیلنج محدود تحقیقی وسائل کی وجہ سے پیچیدہ ہے۔ جب کہ اینتھروپک اور اوپن اے آئی جیسی کمپنیوں نے اپنے سسٹمز کا جائزہ لینے کے لیے اپالو جیسے تیسرے فریق کے ساتھ شراکت داری کی ہے، ماہرین کا کہنا ہے کہ زیادہ شفافیت اور اے آئی سیفٹی ریسرچ تک رسائی کی ضرورت ہے۔

سینٹر فار AI سیفٹی (CAIS) کے مانٹاس میزیکا نوٹ کرتے ہیں کہ تحقیقی اداروں اور غیر منفعتی اداروں کے پاس AI کمپنیوں کے مقابلے کمپیوٹنگ کے بہت کم وسائل ہیں۔ قانونی طور پر، موجودہ ضابطے ان ابھرتے ہوئے مسائل کو حل کرنے کے لیے نہیں بنائے گئے ہیں۔

یورپی یونین (EU) کا AI قانون بنیادی طور پر اس بات پر توجہ مرکوز کرتا ہے کہ انسان اپنے رویے کو کنٹرول کرنے کے بجائے AI ماڈلز کو کس طرح استعمال کرتے ہیں۔ امریکہ میں، صدر ڈونلڈ ٹرمپ کی انتظامیہ نے ہنگامی AI ضوابط جاری کرنے میں بہت کم دلچسپی ظاہر کی ہے، جب کہ کانگریس ریاستوں پر اپنے ضابطے نافذ کرنے پر پابندی لگانے پر غور کر رہی ہے۔

محققین ان چیلنجوں سے نمٹنے کے لیے مختلف طریقوں پر عمل پیرا ہیں۔ کچھ "ماڈل تشریح" کی وکالت کرتے ہیں یہ سمجھنے کے لیے کہ AI کیسے فیصلے کرتا ہے۔ پروفیسر گولڈسٹین نے مزید سخت اقدامات کی تجویز بھی پیش کی ہے، بشمول AI کمپنیوں کو جوابدہ ٹھہرانے کے لیے عدالتی نظام کا استعمال جب ان کی AI مصنوعات سنگین نتائج کا باعث بنتی ہیں۔ وہ یہ بھی تجویز کرتا ہے کہ کسی حادثے یا خلاف ورزی کی صورت میں "AI ایجنٹوں کو خود جوابدہ ٹھہرایا جائے"۔

ماخذ: https://doanhnghiepvn.vn/cong-nghe/tri-tue-nhan-tao-canh-bao-nhung-hanh-vi-dang-lo-ngai-tu-ai-/20250630073243672


تبصرہ (0)

No data
No data

اسی موضوع میں

اسی زمرے میں

A80 پر 'اسٹیل مونسٹرز' کا کلوز اپ اپنی طاقت دکھا رہا ہے۔
A80 ٹریننگ کا خلاصہ: ویتنام کی طاقت ہزار سال پرانے دارالحکومت کی رات میں چمکتی ہے
ہنوئی میں موسلا دھار بارش کے بعد ٹریفک کا نظام درہم برہم، ڈرائیوروں نے پانی بھری سڑکوں پر گاڑیاں چھوڑ دیں۔
A80 گرینڈ تقریب میں ڈیوٹی پر فلائٹ فارمیشن کے متاثر کن لمحات

اسی مصنف کی

ورثہ

پیکر

کاروبار

No videos available

خبریں

سیاسی نظام

مقامی

پروڈکٹ