Vietnam.vn - Nền tảng quảng bá Việt Nam

نئے AI کو حیاتیاتی ہتھیار بنانے کے لیے استعمال کیا جا سکتا ہے۔

Báo Tuổi TrẻBáo Tuổi Trẻ14/09/2024


OpenAI thừa nhận AI mới có thể bị dùng để chế vũ khí sinh học - Ảnh 1.

:فون اوپن اے آئی کا GPT-o1 سیکھنے کا انٹرفیس دکھا رہا ہے - تصویر: فنانشل ٹائمز

13 ستمبر کو فنانشل ٹائمز کے مطابق، کمپنی OpenAI نے اعتراف کیا کہ GPT-o1 ماڈل، جو کہ ابھی 12 ستمبر کو لانچ کیا گیا تھا، "نمایاں طور پر" مصنوعی ذہانت (AI) کے بائیولوجیکل ہتھیار بنانے کے لیے استعمال کیے جانے کے خطرے کو بڑھاتا ہے۔

ایک دستاویز جس میں بتایا گیا ہے کہ GPT-o1 کیسے کام کرتا ہے OpenAI کے ذریعہ شائع کیا گیا ہے کہ نئے ماڈل میں کیمیائی، حیاتیاتی، ریڈیولاجیکل اور جوہری ہتھیاروں سے متعلق مسائل کے لیے "درمیانے خطرے کی سطح" ہے۔ یہ سب سے زیادہ خطرے کی سطح ہے جو OpenAI نے اپنے AI ماڈلز کو تفویض کی ہے۔

OpenAI کے مطابق، اس کا مطلب ہے کہ GPT-o1 ان ماہرین کی صلاحیت کو "ڈرامائی طور پر بہتر" کر سکتا ہے جو بائیو ہتھیار بنانے کے لیے ان کا غلط استعمال کرنا چاہتے ہیں۔

OpenAI کی چیف ٹیکنالوجی آفیسر (CTO) میرا مورتی نے کہا کہ اگرچہ GPT-o1 ابھی بھی جانچ کے مرحلے میں ہے، لیکن ماڈل کی جدید صلاحیتیں اب بھی کمپنی کو مجبور کرتی ہیں کہ وہ عوام کے سامنے اپنے روڈ میپ کے بارے میں انتہائی "محتاط" رہیں۔

محترمہ مورتی نے اس بات کی بھی تصدیق کی کہ کمپنی کی طرف سے تیار کردہ ماڈل کی حدود کو جانچنے کے لیے اوپن اے آئی کی خدمات حاصل کرنے والے ماہرین کی کثیر الضابطہ ٹیم کے ذریعے ماڈل کا اچھی طرح سے تجربہ کیا گیا ہے۔

محترمہ مورتی نے بتایا کہ جانچ کے عمل نے ظاہر کیا کہ GPT-o1 ماڈل اپنے پیشروؤں سے بہت بہتر حفاظتی معیار پر پورا اترتا ہے۔

یہیں نہیں رکے، OpenAI کے نمائندوں نے یہ بھی یقین دلایا کہ GPT-o1 کا آزمائشی ورژن "تعیناتی کے لیے محفوظ" ہے اور ترقی یافتہ ٹیکنالوجیز سے زیادہ پیچیدہ خطرات پیدا نہیں کر سکتا۔

مندرجہ بالا یقین دہانیوں کے باوجود، سائنسی برادری کا ایک بڑا حصہ اور AI میں دلچسپی رکھنے والے اب بھی اس ٹیکنالوجی کی ترقی کی سمت کے بارے میں زیادہ پر امید نہیں ہیں۔

خدشات کہ AI بہت تیزی سے ترقی کر رہا ہے اور اس پر حکمرانی کرنے والے ضوابط کی ترقی اور منظوری کو پیچھے چھوڑ رہا ہے۔

پروفیسر یوشوا بینجیو، جو کہ مونٹریال یونیورسٹی میں کمپیوٹر سائنس کے ماہر ہیں اور دنیا کے معروف AI سائنسدانوں میں سے ایک ہیں، نے کہا کہ اگر OpenAI اب کیمیائی اور حیاتیاتی ہتھیاروں کا "درمیانی خطرہ" لاحق ہے، تو "یہ صرف قوانین کی اہمیت اور فوری ضرورت کو تقویت دیتا ہے"، جیسے کہ کیلی فورنیا کے میدان میں گرما گرم بحث ہو رہی ہے۔

اس سائنسدان نے اس بات پر زور دیا کہ مذکورہ ادارے خاص طور پر اس تناظر میں ضروری ہیں کہ AI تیزی سے مصنوعی جنرل انٹیلی جنس (AGI) کی سطح تک پہنچ رہا ہے، جس کا مطلب ہے انسانوں کے برابر استدلال کرنے کی صلاحیت۔

مسٹر بینجیو نے اندازہ لگایا کہ "اے آئی کے ماڈلز AGI تک جتنے قریب ہوں گے، اگر مناسب احتیاط نہ برتی جائے تو اتنے ہی زیادہ خطرات بڑھیں گے۔ AI کی بہتر استدلال کی صلاحیت اور دھوکہ دہی کے لیے اس کا استعمال انتہائی خطرناک ہے۔"



ماخذ: https://tuoitre.vn/ai-moi-co-the-bi-dung-che-tao-vu-khi-sinh-hoc-20240914154630363.htm

تبصرہ (0)

No data
No data

اسی موضوع میں

اسی زمرے میں

جی ڈریگن ویتنام میں اپنی پرفارمنس کے دوران سامعین کے ساتھ پھٹ پڑا
ہنگ ین میں جی ڈریگن کنسرٹ میں خاتون پرستار عروسی لباس پہن رہی ہے۔
بکواہیٹ پھولوں کے موسم میں لو لو چائی گاؤں کی خوبصورتی سے مسحور
می ٹری جوان چاول میں آگ لگی ہوئی ہے، نئی فصل کے لیے موسل کی تیز رفتار تال کے ساتھ ہلچل مچا رہی ہے۔

اسی مصنف کی

ورثہ

پیکر

کاروبار

می ٹری جوان چاول میں آگ لگی ہوئی ہے، نئی فصل کے لیے موسل کی تیز رفتار تال کے ساتھ ہلچل مچا رہی ہے۔

موجودہ واقعات

سیاسی نظام

مقامی

پروڈکٹ