ماڈل کی استدلال کرنے، پیچیدہ ریاضیاتی مسائل کو حل کرنے اور سائنسی تحقیقی سوالات کے جواب دینے کی صلاحیت کو مصنوعی جنرل انٹیلی جنس (AGI) - انسان جیسی علمی صلاحیتوں والی مشینیں تیار کرنے کی کوشش میں ایک اہم قدم کے طور پر دیکھا جاتا ہے۔
OpenAI نے کہا کہ وہ اس بارے میں خاص طور پر "محتاط" تھا کہ اس نے اپنی جدید صلاحیتوں کے پیش نظر o1 ماڈل کو عوام تک کیسے پہنچایا۔ تصویر: گیٹی امیجز
فنانشل ٹائمز کے مطابق، OpenAI نے کیمیائی، حیاتیاتی، ریڈیولاجیکل اور نیوکلیئر (CBRN) ہتھیاروں سے متعلق مسائل کے لیے ان نئے ماڈلز کے خطرے کو "میڈیم" قرار دیا، جو کمپنی نے اب تک کا سب سے زیادہ اندازہ لگایا ہے۔ اس کا مطلب ہے کہ ٹیکنالوجی نے ماہرین کی حیاتیاتی ہتھیار بنانے کی صلاحیت کو "نمایاں طور پر بہتر" کیا ہے۔
ماہرین کا کہنا ہے کہ تفصیلی استدلال کے قابل AI سافٹ ویئر، خاص طور پر برے اداکاروں کے ہاتھوں میں، بدسلوکی کا خطرہ بڑھا سکتا ہے۔
پروفیسر یوشوا بینجیو، یونیورسٹی آف مونٹریال کے دنیا کے معروف AI سائنسدان، نے اس بات پر زور دیا ہے کہ خطرے کی یہ درمیانی سطح اے آئی کے ضوابط، جیسے کہ SB 1047 کی فوری ضرورت کو بڑھاتی ہے، جو اس وقت کیلیفورنیا میں زیر بحث ہے۔ اس بل کے تحت AI بنانے والوں کو حیاتیاتی ہتھیاروں کی تیاری کے لیے ان کے ماڈلز کے غلط استعمال کے خطرے کو کم کرنے کے لیے اقدامات کرنے کی ضرورت ہے۔
دی ورج کے مطابق، AI ماڈلز کی حفاظت اور حفاظت ایک بڑی تشویش بن گئی ہے کیونکہ گوگل، میٹا، اور اینتھروپک جیسی ٹیکنالوجی کمپنیاں جدید ترین AI سسٹمز بنانے اور بہتر بنانے کی دوڑ میں لگ گئی ہیں۔
یہ نظام انسانوں کو کاموں کو مکمل کرنے اور مختلف شعبوں میں مدد کرنے میں بڑے فائدے لانے کی صلاحیت رکھتے ہیں، لیکن حفاظت اور سماجی ذمہ داری کے حوالے سے چیلنجز بھی پیش کرتے ہیں۔
کاو فونگ (ایف ٹی، رائٹرز، دی ورج کے مطابق)
ماخذ: https://www.congluan.vn/openai-thua-nhan-moi-hinh-ai-co-the-duoc-su-dung-de-tao-ra-vu-khi-biological-post312337.html
تبصرہ (0)