بہت سے ممالک میں تجربے اور یونیسکو کے اصولوں کی بنیاد پر، ویتنام مصنوعی ذہانت (AI) کو اخلاقی اور ذمہ داری کے ساتھ تیار کرنے کے لیے ضوابط بنا رہا ہے۔
28 فروری کی صبح یونیورسٹی آف لاء، VNU میں منعقدہ ورکشاپ "ذمہ دارانہ ترقی اور مصنوعی ذہانت کا اطلاق: نظریہ اور مشق" میں، سائنس اور ٹیکنالوجی کے نائب وزیر بوئی دی ڈو نے کہا کہ AI اخلاقیات ایک پیچیدہ، عالمی مسئلہ ہے جو دنیا بھر کے بہت سے ممالک اور تنظیموں کو حل تلاش کرنے کے لیے راغب کر رہا ہے، جس میں UNESCO بھی شامل ہے۔
انہوں نے کہا کہ "یونیسکو ایک ایسی تنظیم ہے جو ثقافت اور تعلیم پر توجہ دیتی ہے۔ تاہم، اس تنظیم نے پہلی بار مصنوعی ذہانت کو - ایک ٹیکنالوجی سے متعلق موضوع - کو بحث میں شامل کیا ہے۔ اس اقدام کی وجہ سے کچھ ممالک بھی اس تنظیم کو چھوڑ کر دوبارہ شامل ہونے کا فیصلہ کر چکے ہیں،" انہوں نے کہا۔
نائب وزیر کے مطابق، AI اخلاقیات زندگی کے بہت سے پہلوؤں کو متاثر کرتی ہے جیسے کہ معاشرہ، قانون، سیاسی مقابلہ اور تجارتی مقابلہ۔ مصنوعی ذہانت کو ذمہ داری سے تیار کرنے کے لیے، انتظامیہ کو AI ماڈلز کی وضاحت کرنے، ڈیٹا اکٹھا کرنے، سسٹم کو مکمل کرنے اور اسے لاگو کرنے کے مرحلے سے لے کر سنجیدگی سے لینے کی ضرورت ہے۔ ویتنام کی حقیقت میں، اس عمل کے لیے انجینئرز، سائنس دانوں اور انتظامی ایجنسیوں جیسے وزارت سائنس اور ٹیکنالوجی، وزارت اطلاعات و مواصلات، اور وزارتِ عوامی تحفظ کے تال میل کی ضرورت ہے۔
اس کے علاوہ ورکشاپ میں، مسٹر Duy نے کہا کہ یونیسکو کے اصول ممالک کے لیے AI اخلاقیات پر ضابطے بنانے کی بنیاد ہیں۔ سب سے پہلے، مصنوعی ذہانت کے ماڈل کو شروع سے قائم کردہ ڈیزائن اور کاموں کی تعمیل کرنے کی ضرورت ہے، تاکہ اس بات کو یقینی بنایا جا سکے کہ انسانوں کو نقصان پہنچانے والی کوئی تباہ کن حرکتیں نہ ہوں۔
"AI ان ٹیکنالوجیز سے بالکل مختلف ہے جن پر انسانوں نے تحقیق کی ہے۔ جبکہ پرانی ٹیکنالوجی کی مصنوعات صرف موجودہ اہداف کی پیروی کرتی ہیں، لیکن AI نئی سمتیں بنا سکتا ہے، جو ڈویلپر کے کنٹرول سے باہر ہے،" انہوں نے کہا۔ نائب وزیر نے ایک ایسے معاملے کی بھی مثال دی جہاں سائنسدانوں نے دو کمپیوٹر سسٹم کو انگریزی میں بات کرنے کی اجازت دی۔ تاہم، ایک مدت کے بعد، وہ اچانک ایک عجیب زبان میں بات چیت کرنے لگے، جس سے تحقیقی ٹیم کے لیے گفتگو کے مواد کو سمجھنا ناممکن ہو گیا۔
AI ماڈل کی تعمیر کے دوران مساوات اور انصاف کا مسئلہ بھی تشویشناک ہے۔ مسٹر ڈیو کے مطابق، مصنوعی ذہانت کی تربیت کے لیے معلومات جمع کرنے کے مرحلے سے ہی، عدم مساوات پیدا ہو سکتی ہے اور پورے نظام کو منفی طور پر متاثر کر سکتی ہے۔
AI وائس ریکگنیشن ماڈل کے ساتھ، انہوں نے کہا کہ اگر ڈیٹا کا ذریعہ صرف ہنوئی کے لوگوں سے اکٹھا کیا جائے تو دوسرے خطوں کے لوگوں کے ساتھ بات چیت کرتے وقت نظام متعصب ہوگا۔ انہوں نے کہا کہ "زیادہ وسیع طور پر، AI ڈیٹا کے ذرائع معاشرے میں جنسوں اور گروہوں کے درمیان ناانصافی کا باعث بن سکتے ہیں، جیسے کہ معذور افراد،" انہوں نے کہا۔ لہذا، منصفانہ AI کی ترقی کے لیے، قانونی ماہرین کی شرکت کے علاوہ، ماہرین نفسیات اور ماہرین سماجیات کی شراکت کی بھی ضرورت ہے۔
اس کے علاوہ، وزارت کے نمائندے نے AI اخلاقیات کے کچھ اہم اصولوں پر بھی زور دیا جیسے کہ ذاتی ڈیٹا کی حفاظت کو یقینی بنانا، کاپی رائٹ کا احترام کرنا، املاک دانش کے حقوق، مزدور کی پیداواری صلاحیت کو بہتر بنانا لیکن ماحولیات اور سماجی تحفظ کے تحفظ کی ضرورت ہے۔
نائب وزیر بوئی دی ڈوئے ورکشاپ سے خطاب کر رہے ہیں۔ تصویر: ہوانگ گیانگ
ورکشاپ میں ماہرین نے کہا کہ ویتنام دنیا کے کئی ممالک اور خطوں میں ذمہ دار AI کی ترقی کے ضوابط کے نفاذ کی نگرانی کر رہا ہے، تاکہ تحقیق اور گھریلو طریقوں کے لیے موزوں قانونی ڈھانچہ بنایا جا سکے۔
خاص طور پر، 2023 کے آخر میں، یورپی یونین نے AI ایکٹ میں اصولوں کی منظوری دی، جس کی اشاعت 2024 کی دوسری سہ ماہی کے بعد متوقع ہے۔ یہ فی الحال پہلا اور سب سے جامع قانون ہے، جس میں AI کے خطرات سے نمٹنے کے لیے بہت سے اقدامات کیے گئے ہیں۔
"اے آئی ایکٹ 2024 قانون کو اس کے مطابق ایڈجسٹ کرنے کے لیے AI ماڈلز کے خطرات پر مبنی ہو گا، اس کے ساتھ ساتھ ایک سینڈ باکس اور اخلاقیات، وشوسنییتا اور ذمہ داری کے لیے ایک 'نرم' نقطہ نظر،" ڈاکٹر ڈو گیانگ نام، یونیورسٹی آف لاء، VNU نے ورکشاپ میں کہا۔ ان کے مطابق، AI ایکٹ سے جو تجربہ ویتنام لاگو کر سکتا ہے وہ "ایک بار اور ہمیشہ کے لیے قانون بنانے کے لیے نہیں، بلکہ AI ٹیکنالوجی کی ترقی کے لیے مسلسل اپ ڈیٹ اور موافقت کرنا ہے۔"
یورپ کے برعکس، امریکہ AI گورننس کی ترقی کے لیے ردعمل کے لیے نجی شعبے کی طرف دیکھتا ہے۔ امریکہ وہ ملک بھی ہے جس میں AI کمپنیوں کے خلاف سب سے زیادہ مقدمے درج ہیں، زیادہ تر پرائیویسی کی خلاف ورزیوں اور کارکنوں کے گروپوں کے درمیان امتیازی سلوک سے متعلق ہیں۔ ماہرین کے مطابق، قوانین کے ایک مقررہ سیٹ کے بجائے، امریکہ بہت سے اصول جاری کرتا ہے تاکہ تنظیمیں اور افراد AI ماڈلز کو تیار کرنے اور لاگو کرنے کے عمل میں لچکدار ہو سکیں۔
چین اور جاپان بھی دو ایسے ممالک ہیں جنہوں نے ذمہ دار AI تیار کرنے میں بڑی پیش رفت کی ہے۔ 2019 سے، ایک ارب آبادی والے ملک نے ماڈلرز، صارفین، AI گورننس اور مستقبل میں AI کی ترقی کی سمتوں پر توجہ مرکوز کرتے ہوئے چار اصول جاری کیے ہیں۔ اس کے مطابق، چین نے خود مختاری کے ساتھ AI کو ترقی دینے اور گھریلو نظم و نسق کو فروغ دینے کا انتخاب کیا ہے، جب کہ جاپان بین الاقوامی فورمز میں شرکت کو یقینی بناتے ہوئے انسانی مرکز پر مبنی AI ضابطہ اخلاق کا مقصد بنا رہا ہے۔
یونیورسٹی آف لاء، VNU کے پرنسپل ایسوسی ایٹ پروفیسر ڈاکٹر Nguyen Thi Que Anh نے کہا، "چین اور جاپان جیسے ہی خطے کے ممالک میں مصنوعی ذہانت کے انتظام کا عمل ویتنام میں ذمہ دار AI کی ترقی کے لیے ایک تجربہ ہو سکتا ہے۔ قانونی حیثیت کے علاوہ، یہاں ذمہ داری معاشرے اور لوگوں کے لیے بھی ذمہ داری ہے۔" اس کے علاوہ، ویتنام ڈیجیٹل ٹیکنالوجی کی صنعت سے متعلق قانون بھی بنا رہا ہے، جس میں مصنوعی ذہانت سمیت ڈیجیٹل مصنوعات کی اخلاقیات پر مواد شامل ہے۔
ہونگ گیانگ
ماخذ لنک






تبصرہ (0)