OpenAI کے ایک سینئر محقق کے مطابق، دنیا مصنوعی جنرل انٹیلی جنس (AGI) یا اس لمحے کے لیے تیار نہیں ہے جب مصنوعی ذہانت انسانی دماغ کی طرح ہوشیار ہے۔
کیا جنرل مصنوعی ذہانت ایک خطرہ ہے؟
سالوں سے، محققین مصنوعی جنرل انٹیلی جنس، یا AGI کے ابھرنے کے بارے میں قیاس آرائیاں کر رہے ہیں، جب مصنوعی نظام انسانوں کے ساتھ ساتھ کاموں کی ایک وسیع رینج کو سنبھالنے کے قابل ہو جائے گا۔ بہت سے لوگ اس کے ظہور کو ایک وجودی خطرے کے طور پر دیکھتے ہیں، کیونکہ یہ کمپیوٹر کو ایسے طریقوں سے کام کرنے کی اجازت دے سکتا ہے جس کا انسان کبھی تصور بھی نہیں کر سکتا تھا۔
مسٹر مائلز برنڈیج کے مطابق، دنیا مصنوعی جنرل انٹیلی جنس (AGI) کے لمحے کے لیے تیار نہیں ہے۔
اب، ChatGPT ڈویلپر OpenAI کے AGI کے لیے تیار ہونے کو یقینی بنانے کے لیے کام کرنے والے شخص نے اعتراف کیا کہ نہ تو دنیا اور نہ ہی کمپنی خود اگلے مرحلے کے لیے "تیار" ہے۔ Miles Brundage "OpenAI کے AGI کی تیاری کے سینئر مشیر" تھے، لیکن کمپنی نے گروپ کو ختم کرنے کے بعد اس ہفتے اپنی علیحدگی کا اعلان کیا۔
"نہ تو OpenAI اور نہ ہی کوئی دوسری اہم لیب [AGI کے لیے] تیار ہے، اور نہ ہی دنیا۔ واضح ہونے کے لیے، میں نہیں سمجھتا کہ یہ OpenAI کی قیادت کے درمیان کوئی متنازعہ بیان ہے، بلکہ یہ سوال ہے کہ آیا کمپنی اور دنیا صحیح وقت پر تیار ہونے کے راستے پر ہیں،" برنڈیج نے کہا، جس نے AI کی حفاظت کے اقدام کو کمپنی کی شکل دینے میں چھ سال گزارے ہیں۔
Brundage کی روانگی OpenAI کی حفاظتی ٹیموں کی جانب سے ہائی پروفائل روانگیوں کے سلسلے میں تازہ ترین نشانی ہے۔ جان لیکی، ایک ممتاز محقق، یہ کہہ کر چلے گئے کہ "حفاظتی ثقافت اور عمل نے چمکدار مصنوعات کو پیچھے چھوڑ دیا ہے۔" شریک بانی Ilya Sutskever بھی محفوظ AGI تیار کرنے پر توجہ مرکوز کرتے ہوئے اپنا AI اسٹارٹ اپ شروع کرنے کے لیے روانہ ہوئے۔
Brundage کا اپنے "AGI ریڈی نیس" گروپ کو ختم کرنے کے چند ماہ بعد ہی کمپنی نے اپنے "Superalignment" گروپ کو ختم کر دیا جو طویل مدتی AI خطرات کو کم کرنے کے لیے وقف ہے، جس سے OpenAI کے اصل مشن اور کمپنی کے تجارتی عزائم کے درمیان تناؤ کو بے نقاب کیا گیا ہے۔
منافع کا دباؤ OpenAI کو حفاظت سے دور کرتا ہے۔
اوپن اے آئی کو مبینہ طور پر دو سالوں کے اندر غیر منافع بخش کمپنی سے غیر منافع بخش کمپنی میں منتقلی کے دباؤ کا سامنا ہے - یا اس کے حالیہ $6.6 بلین سرمایہ کاری کے دور سے فنڈنگ کھونے کا خطرہ ہے۔ کمرشلائزیشن کی طرف یہ تبدیلی برونڈیج کے لیے ایک طویل عرصے سے تشویش کا باعث رہی ہے، جس نے 2019 تک تحفظات کا اظہار کیا تھا جب OpenAI نے پہلی بار اپنا منافع بخش ڈویژن قائم کیا تھا۔
اوپن اے آئی کے سی ای او سیم آلٹ مین کو کمپنی کو منافع تلاش کرنے کے دباؤ کی وجہ سے "سر درد" ہو رہا ہے۔
اپنی روانگی کی وضاحت کرتے ہوئے، برنڈیج نے مشہور کمپنی میں تحقیق اور اشاعت کی اپنی آزادی پر بڑھتی ہوئی پابندیوں کا حوالہ دیا۔ انہوں نے صنعتی تعصب اور مفادات کے تصادم سے پاک AI پالیسی مباحثوں میں ایک آزاد آواز کی ضرورت پر زور دیا۔ اوپن اے آئی کی قیادت کو اندرونی تیاریوں کے بارے میں مشورہ دینے کے بعد، ان کا خیال ہے کہ اب وہ تنظیم کے باہر سے عالمی اے آئی گورننس پر زیادہ اثر ڈال سکتے ہیں۔
روانگی OpenAI کے اندر ایک گہری ثقافتی تقسیم کی بھی عکاسی کرتی ہے۔ بہت سے محققین AI کی تحقیق کو آگے بڑھانے کے لیے شامل ہوئے اور اب وہ خود کو بڑھتے ہوئے پروڈکٹ سے چلنے والے ماحول میں پاتے ہیں۔ اندرونی وسائل مختص کرنا ایک فلیش پوائنٹ بن گیا ہے - رپورٹس بتاتی ہیں کہ Leike کی ٹیم کو تحلیل کرنے سے پہلے حفاظتی تحقیق کے لیے کمپیوٹنگ پاور سے انکار کر دیا گیا تھا۔
OpenAI کو حالیہ مہینوں میں مصنوعی ذہانت کی ترقی کے اپنے منصوبوں کے بارے میں سوالات کا سامنا کرنا پڑا ہے اور یہ حفاظت کو کتنی سنجیدگی سے لیتا ہے۔ اگرچہ اس کی بنیاد ایک غیر منفعتی تنظیم کے طور پر رکھی گئی تھی جو اس تحقیق کے لیے وقف تھی کہ محفوظ مصنوعی ذہانت کو کیسے بنایا جائے، ChatGPT کی کامیابی نے بڑی سرمایہ کاری اور نئی ٹیکنالوجی کو منافع کے لیے استعمال کرنے کے لیے دباؤ ڈالا ہے۔
ماخذ: https://www.baogiaothong.vn/the-gioi-chua-san-sang-phat-trien-ai-thong-minh-nhu-bo-nao-con-nguoi-192241027005459507.htm
تبصرہ (0)