یہ ماڈل استدلال کرنے، ریاضی کے پیچیدہ مسائل کو حل کرنے اور سائنسی تحقیقی سوالات کے جوابات دینے کی صلاحیت رکھتا ہے، جسے مصنوعی جنرل انٹیلی جنس (AGI) یعنی انسانوں جیسی علمی صلاحیتوں والی مشینیں تیار کرنے کی کوشش میں ایک اہم قدم سمجھا جاتا ہے۔
اوپن اے آئی نے کہا کہ وہ اس بارے میں خاص طور پر "محتاط" ہے کہ اس کی جدید صلاحیتوں کے پیش نظر یہ o1 ماڈل کو عوام تک کیسے لائے گا۔ تصویر: گیٹی امیجز
فنانشل ٹائمز کے مطابق، OpenAI نے کیمیائی، حیاتیاتی، ریڈیولاجیکل اور نیوکلیئر (CBRN) ہتھیاروں سے متعلق مسائل کے لیے ان نئے ماڈلز کے خطرے کو "میڈیم" قرار دیا، جو کمپنی نے اب تک کا سب سے زیادہ اندازہ لگایا ہے۔ اس کا مطلب ہے کہ ٹیکنالوجی نے ماہرین کی حیاتیاتی ہتھیار بنانے کی صلاحیت کو "نمایاں طور پر بہتر" کیا ہے۔
ماہرین کے مطابق، تفصیلی استدلال کی صلاحیت رکھنے والا AI سافٹ ویئر، خاص طور پر برے اداکاروں کے ہاتھ میں، غلط استعمال کا خطرہ بڑھا سکتا ہے۔
پروفیسر یوشوا بینجیو، یونیورسٹی آف مونٹریال سے دنیا کے معروف AI سائنسدان، نے اس بات پر زور دیا ہے کہ خطرے کی یہ درمیانی سطح اے آئی کے ضوابط، جیسے کہ SB 1047 کی فوری ضرورت کو بڑھاتی ہے، جو اس وقت کیلیفورنیا میں زیرِ بحث ہے۔ اس بل کے تحت AI مینوفیکچررز کو حیاتیاتی ہتھیاروں کی تیاری کے لیے ان کے ماڈلز کے غلط استعمال کے خطرے کو کم کرنے کے لیے اقدامات کرنے کی ضرورت ہے۔
دی ورج کے مطابق، AI ماڈلز کی حفاظت اور حفاظت ایک بڑی تشویش بن گئی ہے کیونکہ گوگل، میٹا، اور اینتھروپک جیسی ٹیکنالوجی کمپنیاں جدید ترین AI سسٹمز بنانے اور بہتر بنانے کی دوڑ میں لگ گئی ہیں۔
یہ نظام انسانوں کو کاموں کو مکمل کرنے اور مختلف شعبوں میں مدد فراہم کرنے میں بہت زیادہ فوائد فراہم کرنے کی صلاحیت رکھتے ہیں، بلکہ حفاظت اور سماجی ذمہ داری کے چیلنجز بھی پیش کرتے ہیں۔
کاو فونگ (ایف ٹی، رائٹرز، دی ورج کے مطابق)
ماخذ: https://www.congluan.vn/openai-thua-nhan-mo-hinh-ai-moi-co-the-duoc-su-dung-de-tao-ra-vu-khi-biological-hoc-post312337.html
تبصرہ (0)