:فون اوپن اے آئی کا GPT-o1 سیکھنے کا انٹرفیس دکھا رہا ہے - تصویر: فنانشل ٹائمز
13 ستمبر کو فنانشل ٹائمز کے مطابق، کمپنی OpenAI نے اعتراف کیا کہ GPT-o1 ماڈل، جو کہ ابھی 12 ستمبر کو لانچ کیا گیا تھا، "نمایاں طور پر" مصنوعی ذہانت (AI) کے بائیولوجیکل ہتھیار بنانے کے لیے استعمال کیے جانے کے خطرے کو بڑھاتا ہے۔
اوپن اے آئی کے ذریعہ شائع کردہ GPT-o1 کے کام کرنے کے طریقہ کی وضاحت کرنے والے ایک مقالے میں کہا گیا ہے کہ نئے ماڈل میں کیمیائی، حیاتیاتی، ریڈیولاجیکل اور جوہری ہتھیاروں سے متعلق مسائل کے لیے "درمیانے خطرے کی سطح" ہے۔ یہ سب سے زیادہ خطرے کی سطح ہے جو OpenAI نے اپنے AI ماڈلز کو تفویض کی ہے۔
OpenAI کے مطابق، اس کا مطلب ہے کہ GPT-o1 ان ماہرین کی صلاحیت کو "ڈرامائی طور پر بہتر" کر سکتا ہے جو بائیو ہتھیار بنانے کے لیے ان کا غلط استعمال کرنا چاہتے ہیں۔
OpenAI کی چیف ٹیکنالوجی آفیسر (CTO) میرا مورتی نے کہا کہ اگرچہ GPT-o1 ابھی بھی جانچ کے مرحلے میں ہے، لیکن ماڈل کی جدید صلاحیتیں اب بھی کمپنی کو مجبور کرتی ہیں کہ وہ عوام کے سامنے اپنے روڈ میپ کے بارے میں انتہائی "محتاط" رہیں۔
محترمہ مورتی نے اس بات کی بھی تصدیق کی کہ کمپنی کی طرف سے تیار کردہ ماڈل کی حدود کو جانچنے کے لیے اوپن اے آئی کی خدمات حاصل کرنے والے ماہرین کی کثیر الضابطہ ٹیم کے ذریعے ماڈل کا اچھی طرح سے تجربہ کیا گیا ہے۔
مراتی نے کہا کہ جانچ سے پتہ چلتا ہے کہ GPT-o1 ماڈل اپنے پیشرووں سے بہت بہتر حفاظتی معیار پر پورا اترتا ہے۔
یہیں نہیں رکے، OpenAI کے نمائندوں نے یہ بھی یقین دلایا کہ GPT-o1 کا آزمائشی ورژن "تعیناتی کے لیے محفوظ" ہے اور ترقی یافتہ ٹیکنالوجیز سے زیادہ پیچیدہ خطرات پیدا نہیں کر سکتا۔
مندرجہ بالا یقین دہانیوں کے باوجود، سائنسی برادری کا ایک بڑا حصہ اور AI میں دلچسپی رکھنے والے اب بھی اس ٹیکنالوجی کی ترقی کی سمت کے بارے میں زیادہ پر امید نہیں ہیں۔
یہ خدشات کہ AI بہت تیزی سے ترقی کر رہا ہے اور اس رفتار سے آگے بڑھ رہا ہے جس سے ضوابط تیار کیے جا رہے ہیں اور اسے حکومت کرنے کے لیے منظور کیا جا رہا ہے۔
اگر OpenAI اب کیمیائی اور حیاتیاتی ہتھیاروں کا "درمیانی خطرہ" لاحق ہے، تو "یہ صرف قانون سازی کی اہمیت اور فوری ضرورت کو تقویت دیتا ہے"، جیسا کہ کیلیفورنیا میں اس شعبے کو منظم کرنے کے لیے گرما گرم بحث ہو رہی ہے، یونیورسٹی آف مونٹریال میں کمپیوٹر سائنس کے پروفیسر اور دنیا کے معروف AI ماہرین میں سے ایک یوشوا بینجیو نے کہا۔
اس سائنسدان نے اس بات پر زور دیا کہ مذکورہ ادارے خاص طور پر اس تناظر میں ضروری ہیں کہ AI تیزی سے مصنوعی جنرل انٹیلی جنس (AGI) کی سطح تک پہنچ رہا ہے، جس کا مطلب ہے انسانوں کے برابر استدلال کرنے کی صلاحیت۔
مسٹر بینجیو نے اندازہ لگایا کہ "اے آئی کے ماڈلز AGI تک جتنے قریب ہوں گے، اگر مناسب احتیاط نہ برتی جائے تو اتنے ہی زیادہ خطرات بڑھیں گے۔ AI کی بہتر استدلال کی صلاحیت اور دھوکہ دہی کے لیے اس کا استعمال انتہائی خطرناک ہے۔"
ماخذ: https://tuoitre.vn/ai-moi-co-the-bi-dung-che-tao-vu-khi-sinh-hoc-20240914154630363.htm
تبصرہ (0)