ویتنام میں AI اخلاقیات کے قوانین کا پہلا سیٹ ہے۔
توقع ہے کہ مصنوعی ذہانت (AI) سے لوگوں، معاشرے اور ویتنامی معیشت کے لیے بہت زیادہ فائدے ہوں گے۔ AI کے اطلاق کے ساتھ ساتھ، ویتنام نے ابتدائی طور پر تحقیق کی ہے اور AI کو تیار کرنے اور استعمال کرنے کے عمل میں خطرات کو کم کرنے، معاشی، اخلاقی اور قانونی عوامل کو متوازن کرنے کے لیے اقدامات کیے ہیں۔
یہی وجہ ہے کہ وزارت سائنس اور ٹیکنالوجی (MOST) نے مصنوعی ذہانت کے نظام کی ذمہ دارانہ تحقیق اور ترقی سے متعلق متعدد اصولوں کی رہنمائی کرنے والے دستاویزات کا ایک سیٹ جاری کیا۔
رہنمائی دستاویز مصنوعی ذہانت کے نظام کی تحقیق، ڈیزائن، ترقی اور فراہمی میں حوالہ اور اطلاق کے لیے متعدد عمومی اصول اور رضاکارانہ سفارشات کا تعین کرتی ہے۔
سائنسی اور تکنیکی ایجنسیوں، تنظیموں، کاروباروں اور مصنوعی ذہانت کے نظام کی تحقیق، ڈیزائن، ترقی اور فراہمی میں مصروف افراد کو اس رہنمائی دستاویز کو لاگو کرنے کی ترغیب دی جاتی ہے۔

اسی مناسبت سے، ویتنام میں اے آئی سسٹمز کی تحقیق اور ترقی کو انسانوں پر مرکوز معاشرے کی طرف بڑھنے کے بنیادی نقطہ نظر پر مبنی ہونے کی ضرورت ہے، جہاں ہر کوئی مصنوعی ذہانت کے فوائد سے لطف اندوز ہو، فوائد اور خطرات کے درمیان معقول توازن کو یقینی بنائے۔
ویتنام میں AI سسٹمز کی تحقیق اور ترقی کی سرگرمیوں کا مقصد تکنیکی غیرجانبداری کو یقینی بنانا ہے۔ تمام معاملات میں، سائنس اور ٹیکنالوجی کی وزارت متعلقہ فریقوں کی شرکت کے ساتھ تبادلے اور بات چیت کی حوصلہ افزائی کرتی ہے۔ عملی حالات کے مطابق اصولوں اور رہنما خطوط پر تحقیق اور اپ ڈیٹ کیا جاتا رہے گا۔
سائنس اور ٹیکنالوجی کی وزارت نے کہا کہ دستاویز کے سیٹ کی پیدائش کا مقصد ویتنام میں محفوظ اور ذمہ دارانہ انداز میں مصنوعی ذہانت کی تحقیق، ترقی اور استعمال میں دلچسپی کو فروغ دینا ہے، لوگوں اور کمیونٹی پر منفی اثرات کو کم کرنا۔ اس سے AI پر صارفین اور معاشرے کا اعتماد بڑھے گا اور ویتنام میں مصنوعی ذہانت کی تحقیق اور ترقی میں آسانی ہوگی۔
ذمہ دار AI کی ترقی کے اصول
دستاویز میں، ڈویلپرز کی حوصلہ افزائی کی گئی ہے کہ وہ تعاون کے جذبے کا مظاہرہ کریں، مصنوعی ذہانت کے نظام کے کنکشن اور تعامل کے ذریعے جدت کو فروغ دیں۔ ڈیولپرز کو AI سسٹمز کے ان پٹ/آؤٹ پٹ کو کنٹرول کرتے ہوئے اور متعلقہ تجزیات کی وضاحت کرنے کی صلاحیت کو یقینی بنا کر شفافیت کو یقینی بنانا چاہیے۔
ڈویلپرز کو مصنوعی ذہانت کے نظام کو کنٹرول کرنے کی صلاحیت پر توجہ دینے اور اس میں شامل خطرات کا پہلے سے جائزہ لینے کی ضرورت ہے۔ خطرے کی تشخیص کے طریقوں میں سے ایک یہ ہے کہ جانچ کو علیحدہ جگہ جیسے کہ لیبارٹری یا ایسے ماحول میں کروایا جائے جہاں انہیں عملی طور پر استعمال کرنے سے پہلے حفاظت اور حفاظت کی ضمانت دی جاتی ہو۔
مزید برآں، AI سسٹمز کی کنٹرولیبلٹی کو یقینی بنانے کے لیے، ڈویلپرز کو سسٹم مانیٹرنگ پر توجہ دینی چاہیے (اسسمنٹ/مانیٹرنگ ٹولز کا ہونا یا صارف کے تاثرات کی بنیاد پر ایڈجسٹ/اپ ڈیٹ کرنا) اور جوابی اقدامات (سسٹم شٹ ڈاؤن، نیٹ ورک شٹ ڈاؤن، وغیرہ) جو انسانوں یا قابل اعتماد AI سسٹمز کے ذریعے کیے گئے ہیں۔

ڈویلپرز کو اس بات کو یقینی بنانے کی ضرورت ہے کہ AI سسٹم صارفین یا تیسرے فریق کی جان، جسم یا املاک کو نقصان نہیں پہنچائے گا، بشمول ثالث کے ذریعے؛ AI نظام کی حفاظت پر توجہ دینے کی ضرورت ہے، جسمانی حملوں یا حادثات کا مقابلہ کرنے کے لیے نظام کی قابل اعتمادی اور صلاحیت؛ اس بات کو یقینی بنانے کی ضرورت ہے کہ AI سسٹم صارفین یا تیسرے فریق کی رازداری کی خلاف ورزی نہیں کرتا ہے۔ اصول میں بیان کردہ رازداری کے حقوق میں جگہ کی رازداری کا حق (ذاتی زندگی میں امن)، معلومات کی رازداری کا حق (ذاتی ڈیٹا) اور مواصلات کی رازداری شامل ہیں۔
مصنوعی ذہانت کے نظام کو تیار کرتے وقت، ڈویلپرز کو انسانی حقوق اور وقار کا احترام کرنے کا خاص خیال رکھنا چاہیے۔ جس حد تک ممکن ہو، لاگو ٹیکنالوجی کی خصوصیات پر منحصر ہے، ڈویلپرز کو اس بات کو یقینی بنانے کے لیے اقدامات کرنے چاہئیں کہ وہ تربیتی ڈیٹا میں تعصب (تعصب) کی وجہ سے امتیازی سلوک یا ناانصافی کا سبب نہ بنیں۔ صرف یہی نہیں، ڈویلپرز کو اسٹیک ہولڈرز اور سپورٹ صارفین کے لیے اپنی جوابدہی کا استعمال کرنا چاہیے۔
ماخذ: https://vietnamnet.vn/viet-nam-ra-nguyen-tac-ai-khong-duoc-gay-ton-hai-tinh-mang-tai-san-nguoi-dung-2292026.html






تبصرہ (0)