OpenAI کے ایک سینئر محقق کے مطابق، دنیا مصنوعی جنرل انٹیلی جنس (AGI) کے لیے تیار نہیں ہے، یا وہ مقام جہاں مصنوعی ذہانت انسانی دماغ کی طرح ہوشیار ہے۔
کیا عام مصنوعی ذہانت ایک خطرہ ہے؟
برسوں سے، محققین مصنوعی عمومی ذہانت، یا AGI کے ابھرنے کے بارے میں قیاس آرائیاں کر رہے ہیں، جہاں مصنوعی نظام انسانوں کے ساتھ ساتھ کاموں کی ایک وسیع رینج کو سنبھالنے کے قابل ہوں گے۔ بہت سے لوگ اس کے ظہور کو ایک وجودی خطرے کے طور پر دیکھتے ہیں، کیونکہ یہ کمپیوٹر کو ان طریقوں سے کام کرنے کی اجازت دے سکتا ہے جس کا انسان تصور بھی نہیں کر سکتے۔
مسٹر مائلز برنڈیج کے مطابق، دنیا مصنوعی جنرل انٹیلی جنس (AGI) کے وقت کے لیے تیار نہیں ہے۔
اب، ChatGPT ڈویلپر OpenAI کے AGI کے لیے تیار ہونے کو یقینی بنانے کے لیے کام کرنے والے شخص نے اعتراف کیا کہ نہ تو دنیا اور نہ ہی کمپنی خود اگلے مرحلے کے لیے "تیار" ہے۔ Miles Brundage نے "OpenAI کے سینئر مشیر برائے AGI تیاری" کے طور پر خدمات انجام دیں، لیکن کمپنی نے اس گروپ کو ختم کرنے کے بعد اس ہفتے اپنی علیحدگی کا اعلان کیا۔
"نہ تو OpenAI اور نہ ہی کوئی اور اہم لیب تیار ہے (AGI کے لیے)، اور نہ ہی دنیا۔ واضح ہونے کے لیے، میں نہیں سمجھتا کہ یہ OpenAI کی قیادت کے درمیان کوئی متنازعہ بیان ہے، بلکہ یہ سوال ہے کہ آیا کمپنی اور دنیا صحیح وقت پر تیار ہونے کے لیے راستے پر ہیں،" Brundage نے کہا، جس نے AI کے حفاظتی اقدام کو کمپنی کی تشکیل میں مدد کرنے میں چھ سال گزارے ہیں۔
Brundage کی روانگی OpenAI کی حفاظتی ٹیموں کی قابل ذکر روانگیوں کے سلسلے میں تازہ ترین نشانی ہے۔ جان لیکی، ایک ممتاز محقق، یہ کہہ کر چلے گئے کہ "حفاظتی ثقافت اور عمل نے چمکدار مصنوعات کو پیچھے چھوڑ دیا ہے۔" شریک بانی Ilya Sutskever بھی محفوظ AGI تیار کرنے پر توجہ مرکوز کرتے ہوئے اپنا AI اسٹارٹ اپ شروع کرنے کے لیے روانہ ہوئے۔
Brundage کے اپنے "AGI ریڈینس" گروپ کو ختم کرنے کے چند مہینوں بعد کمپنی نے اپنے "Superalignment" گروپ کو ختم کر دیا جو طویل مدتی AI کے خطرات کو کم کرنے کے لیے وقف ہے، OpenAI کے اصل مشن اور اس کے تجارتی عزائم کے درمیان تناؤ کو بے نقاب کرتا ہے۔
منافع کا دباؤ OpenAI کو محفوظ راستے سے دور کرتا ہے۔
اوپن اے آئی کو مبینہ طور پر دو سالوں کے اندر غیر منافع بخش کمپنی سے غیر منافع بخش کمپنی میں منتقلی کے دباؤ کا سامنا ہے - یا اس کے حالیہ $6.6 بلین سرمایہ کاری کے دور سے فنڈنگ کھونے کا خطرہ ہے۔ کمرشلائزیشن کی طرف یہ تبدیلی برونڈیج کے لیے طویل عرصے سے تشویش کا باعث رہی ہے، جس نے 2019 سے تحفظات کا اظہار کیا ہے جب OpenAI نے پہلی بار اپنا منافع بخش ڈویژن قائم کیا۔
اوپن اے آئی کے سی ای او سیم آلٹ مین کو کمپنی کو منافع حاصل کرنے کے دباؤ کی وجہ سے "سر درد" کا سامنا ہے۔
اپنی روانگی کی وضاحت کرتے ہوئے، برنڈیج نے ممتاز کمپنی میں تحقیق اور اشاعت کی اپنی آزادی پر بڑھتی ہوئی پابندیوں کا حوالہ دیا۔ انہوں نے صنعتی تعصب اور مفادات کے تصادم سے پاک AI پالیسی مباحثوں میں ایک آزاد آواز کی ضرورت پر زور دیا۔ اوپن اے آئی کی قیادت کو اندرونی تیاریوں کے بارے میں مشورہ دینے کے بعد، ان کا خیال ہے کہ اب وہ تنظیم کے باہر سے عالمی اے آئی گورننس پر زیادہ اثر ڈال سکتے ہیں۔
روانگی OpenAI کے اندر ایک گہری ثقافتی تقسیم کی بھی عکاسی کرتی ہے۔ بہت سے محققین AI کی تحقیق کو آگے بڑھانے کے لیے شامل ہوئے اور اب وہ خود کو بڑھتے ہوئے پروڈکٹ سے چلنے والے ماحول میں پاتے ہیں۔ اندرونی وسائل کی تقسیم ایک فلیش پوائنٹ بن گئی ہے — رپورٹس بتاتی ہیں کہ Leike کی ٹیم کو تحلیل ہونے سے پہلے حفاظتی تحقیق کے لیے کمپیوٹنگ پاور سے انکار کر دیا گیا تھا۔
OpenAI کو حالیہ مہینوں میں مصنوعی ذہانت کی ترقی کے اپنے منصوبوں کے بارے میں سوالات کا سامنا کرنا پڑا ہے اور یہ حفاظت کو کتنی سنجیدگی سے لیتا ہے۔ اگرچہ محفوظ مصنوعی ذہانت کی تعمیر کے لیے تحقیق کے لیے وقف ایک غیر منفعتی تنظیم کے طور پر قائم ہونے کے باوجود، ChatGPT کی کامیابی نے اہم سرمایہ کاری اور نئی ٹیکنالوجی کو منافع کے لیے استعمال کرنے کے لیے دباؤ ڈالا ہے۔
ماخذ: https://www.baogiaothong.vn/the-gioi-chua-san-sang-phat-trien-ai-thong-minh-nhu-bo-nao-con-nguoi-192241027005459507.htm
تبصرہ (0)