ضابطے کھلے ہونے چاہئیں۔
دسویں اجلاس کو جاری رکھتے ہوئے، 21 نومبر کی صبح، قومی اسمبلی نے مصنوعی ذہانت سے متعلق قانون کے مسودے پر گروپوں میں بحث کی۔
گروپ 4 میں رائے دیتے ہوئے (بشمول کھانہ ہو، لائی چاؤ اور لاؤ کائی صوبوں کے قومی اسمبلی کے وفود)، مندوبین نے بنیادی طور پر قانون کو نافذ کرنے کی ضرورت سے اتفاق کیا۔

قومی اسمبلی کے ڈپٹی Nguyen Huu Toan ( Lai Chau ) کے مطابق موجودہ وقت میں آرٹیفیشل انٹیلی جنس (AI) کے قانون کا نفاذ بہت ضروری ہے۔ "ہم نے اس قانون کو قومی اسمبلی میں پیش کرنے کے لیے نسبتاً اچھی تیاری کی ہے۔"
قومی اسمبلی کے ڈپٹی Nguyen Thi Lan Anh (Lao Cai) نے کہا کہ فی الحال، بہت کم ممالک نے مصنوعی ذہانت سے متعلق قانون جاری کیا ہے، اس لیے اس قانون کو نافذ کرنے کے عمل میں حوالہ جات بھی محدود ہیں۔ تاہم، "اس کا مطلب یہ نہیں ہے کہ ہمیں اسے جاری نہیں کرنا چاہیے"، مندوب نے زور دیا۔
تاہم، مندوب Nguyen Thi Lan Anh نے نوٹ کیا کہ قانون کے نفاذ میں "کھلے پن" کے عنصر کو مدنظر رکھنے کی ضرورت ہے، کیونکہ ٹیکنالوجی ہمیشہ دن کے ساتھ، گھنٹے کے ساتھ ترقی کرتی رہتی ہے۔ "اگر قانون کو ایک تنگ فریم ورک میں نافذ کیا جاتا ہے، تو ہم احتیاط کیے بغیر جدید ٹیکنالوجی کے شعبے کو فروغ نہیں دے سکیں گے۔"
مصنوعی ذہانت سے فائدہ اٹھانے کے حق کی ضمانت کے لیے ریاستی ضوابط پر غور کریں۔
مخصوص تبصرے دیتے ہوئے، مندوب Nguyen Huu Toan نے کہا کہ مسودہ قانون کے اطلاق کے مضامین (آرٹیکل 2) کا تعین کیا گیا ہے: ویتنام کی ایجنسیاں، تنظیمیں، افراد اور غیر ملکی تنظیمیں اور افراد جو ویتنام میں مصنوعی ذہانت کے نظام کو تیار کرنے، فراہم کرنے، تعینات کرنے اور استعمال کرنے کی سرگرمیاں رکھتے ہیں، یا مصنوعی ذہانت کے نظام کا استعمال کرتے ہیں جو ویتنام میں مصنوعی ذہانت کے نتائج پیدا کرتے ہیں ۔
تاہم، ریگولیشن کا دائرہ کار (شق 2، آرٹیکل 1) یہ بتاتا ہے: یہ قانون مصنوعی ذہانت کے ان نظاموں پر لاگو نہیں ہوتا جو خصوصی طور پر دفاع، سلامتی، انٹیلی جنس، اور خفیہ مقاصد کے لیے تیار کیے گئے، فراہم کیے گئے، تعینات کیے گئے اور استعمال کیے گئے۔
مندوب کے مطابق، اس قانون کو نافذ کرنے کے لیے اب بھی قومی دفاع اور سلامتی کو یقینی بنانا ہوگا، کیونکہ ویتنام میں سرحد کے باہر سے مصنوعی ذہانت کی مصنوعات فراہم کی جاتی ہیں۔

اس لیے، مسودہ قانون میں "مصنوعی ذہانت کے نظام تیار کیے گئے، فراہم کیے گئے، تعینات کیے گئے، اور خصوصی طور پر دفاع، سلامتی، انٹیلی جنس، اور خفیہ نگاری کے مقاصد کے لیے استعمال کیے گئے" کو خارجی نقطہ کے طور پر نہیں سمجھا جانا چاہیے۔ اس کے بجائے، اسے اس سمت میں ریگولیٹ کیا جانا چاہئے کہ دفاع، سیکورٹی، انٹیلی جنس، اور خفیہ نگاری کے مقاصد کے لئے مصنوعی ذہانت کے نظام کی تحقیق، ترقی، فراہمی، تعیناتی اور استعمال کو رہنمائی کے لیے وزارت قومی دفاع یا وزارت عوامی تحفظ کو تفویض کیا جائے۔
نیز شق 2 میں، آرٹیکل 1 یہ بھی بتاتا ہے: یہ قانون مصنوعی ذہانت کے نظام یا مصنوعی ذہانت کے ماڈلز پر لاگو نہیں ہوتا ہے جو صرف سائنسی تحقیق، تربیت، اور ترقی کی سہولیات کے اندرونی دائرہ کار میں تیار کیے گئے، فراہم کیے گئے، تعینات کیے گئے اور استعمال کیے گئے ہیں اور اس کا استحصال نہیں کیا گیا ہے اور نہ ہی تیسرے فریق کو فراہم کیا گیا ہے۔
اس بات کی منظوری دیتے ہوئے کہ تحقیقی سہولیات کے دائرہ کار میں استعمال ہونے والے مصنوعی ذہانت کے نظام قانون کے تابع نہیں ہیں، مندوب Nguyen Huu Toan نے نوٹ کیا کہ اگر یہ نظام قانون کی خلاف ورزی کرتا ہے، تو اسے سنبھالا جانا چاہیے۔
درحقیقت، بہت چھوٹے اندرونی نظام ہیں لیکن بہت بڑے اندرونی نظام بھی ہیں۔ "اندرونی استعمال شرائط اور ضوابط کے مطابق ہونا چاہیے" اور قانون میں ضوابط ہونے چاہئیں، مندوب نے زور دیا۔
مسودہ قانون خاص طور پر مصنوعی ذہانت (آرٹیکل 5) سے متعلق ریاست کی آٹھ پالیسیوں کا تعین کرتا ہے۔ بنیادی طور پر ان پالیسیوں سے اتفاق کرتے ہوئے، مندوب Nguyen Huu Toan نے مشورہ دیا کہ کچھ نکات کو واضح کرنے کی ضرورت ہے۔
خاص طور پر، شق 3، آرٹیکل 5 میں کہا گیا ہے: ریاست مصنوعی ذہانت سے فائدہ اٹھانے، سیکھنے اور لطف اندوز ہونے کے لیے تنظیموں اور افراد کے حق کو یقینی بناتی ہے۔ ایک جامع اور جامع ڈیجیٹل معاشرے کی ترقی کو فروغ دیتا ہے۔
مندوب کے مطابق ریاست کے لیے مصنوعی ذہانت تک رسائی کے حق کی ضمانت دینا مناسب ہے۔ تاہم، مصنوعی ذہانت کے فوائد سے لطف اندوز ہونے کے لیے، صارفین کو اپنی سرمایہ کاری اور اسے پیداوار اور کاروباری ماحول میں لاگو کرنے کے لیے خود بھی خرچ کرنا چاہیے۔ ریاست اس کی مکمل ضمانت دینے کی پابند نہیں ہے۔ اس لیے ضروری ہے کہ اس ضابطے کے مطابق نظر ثانی کی جائے۔
مصنوعی ذہانت کے نظام کے خطرے کی سطح کے بارے میں، مسودہ قانون کا آرٹیکل 7 انہیں 4 اقسام میں تقسیم کرتا ہے: ناقابل قبول خطرہ؛ اعلی خطرہ؛ درمیانی خطرہ؛ کم خطرہ.
اس درجہ بندی سے اتفاق کرتے ہوئے، تاہم، مندوب Nguyen Huu Toan کے مطابق، مختلف ٹارگٹ گروپس کے لیے عملی طور پر درخواست مختلف ہے۔ مثال کے طور پر، درمیانے درجے کے خطرے کی ایک قسم ہے جو بڑوں کو متاثر نہیں کرتی بلکہ بچوں کو متاثر کرتی ہے۔ یا ان علاقوں میں جہاں تک رسائی کی خراب صورتحال ہے، یہ ایک اعلی خطرہ بن جاتا ہے...
لہذا، مندوبین نے مشورہ دیا کہ ہر قسم کے خطرے کو واضح طور پر بیان کیا جانا چاہیے اور ہر موضوع پر لاگو کیا جانا چاہیے اور انتباہات ہونا چاہیے، مثال کے طور پر، کم خطرے والی چھترییں ہیں جو صرف بالغوں کو فراہم کی جاتی ہیں، بچوں کو نہیں۔
مانیٹرنگ اور وقوعہ کی وارننگ سسٹم کی تعمیر
ایک مسئلہ جس میں مندوبین بہت دلچسپی رکھتے ہیں وہ مصنوعی ذہانت کے واقعات کے انتظام اور ان سے نمٹنے سے متعلق ہے۔ مسودہ قانون کی وضاحت کرتا ہے: ایک سنگین واقعہ مصنوعی ذہانت کی سرگرمیوں میں ایک تکنیکی واقعہ ہے جو انسانی زندگی، صحت، املاک، ڈیٹا، سیکورٹی یا سماجی نظم کے لیے سنگین نتائج کا سبب بنتا ہے یا اس کی دھمکی دیتا ہے۔
مندوب Nguyen Thi Lan Anh نے تجزیہ کیا کہ طبی میدان میں بہت سے مختلف درجے ہیں اور اسی طرح سیکورٹی بھی۔

"تو اس واقعے کا اندازہ لگانے کے لیے کیا طریقہ کار ہے؟ کون سا فریق، کون سا طریقہ کار مطلع کرے گا؟ کیونکہ کچھ چیزیں ایسی ہوتی ہیں جو کسی واقعے کے ہونے کے بعد دریافت ہونے پر بہت خطرناک ہوتی ہیں۔ خاص طور پر میڈیکل کے شعبے میں، جس کا براہ راست تعلق انسانی زندگی سے ہوتا ہے۔"
اس طرح کے معاملے کو اٹھاتے ہوئے، مندوب Nguyen Thi Lan Anh نے کہا کہ ہمیں ایک پراسیس سسٹم ڈیزائن کرنا چاہیے۔ سب سے پہلے، ہمیں پروسیسنگ کے عمل کے بارے میں بات کرنی چاہئے، کون اسے سنبھالتا ہے اور کس سطح پر ایک انتباہ ہوگا؟ دوسرا، نگرانی اور قبل از وقت وارننگ کا نظام ہونا چاہیے۔ یہ بہت اہم ہے اور اگر ہم ابتدائی وارننگ چاہتے ہیں تو ہمیں ان پٹ ڈیٹا کو یقینی بنانا چاہیے۔
نیز مندوب Nguyen Thi Lan Anh کے مطابق، ذمہ داری کا مسئلہ بہت واضح ہونا چاہیے: کیا یہ ماڈل ڈویلپر کی ذمہ داری ہے، یا انتظامی ایجنسی، یا آخر صارف کی؟
خلاصہ میں، مندوبین کے مطابق، مصنوعی ذہانت کے واقعات کی مخصوص اقسام کی درجہ بندی اور وضاحت ضروری ہے۔ واقعات کے لیے مانیٹرنگ اور وارننگ سسٹم بنائیں۔ ہر خطرے کی سطح کے گروپ کے مطابق ہینڈلنگ کے عمل کی وضاحت کریں، متعلقہ فریقوں کی تکنیکی اور قانونی مدد میں اضافہ کریں؛ اور معاوضے کے طریقہ کار سے متعلق قانونی ذمہ داریوں کے بارے میں واضح ہو۔ یہ سیکورٹی اور نیٹ ورک کی حفاظت دونوں کو یقینی بنائے گا۔
مسودہ قانون کی شق 2، آرٹیکل 10 میں کہا گیا ہے: جب مصنوعی ذہانت کے نظام میں کوئی سنگین واقعہ پیش آتا ہے، تو سسٹم ڈویلپر، سپلائر، اور مصنوعی ذہانت کے نظام کو نافذ کرنے والا فریق ذمہ دار ہوں گے: a) سسٹم کے ڈویلپر اور سپلائر کو فوری طور پر تکنیکی اقدامات کا اطلاق کرنا چاہیے تاکہ نظام کو ٹھیک کرنے، معطل کرنے، یا مجاز کو بحال نہ کرنے، یا اسے بحال کرنے کے لیے تکنیکی اقدامات کا اطلاق کرنا چاہیے۔ ب) عمل درآمد کرنے والا فریق اور صارف واقعہ کو فوری طور پر ریکارڈ کرنے اور مطلع کرنے اور تدارک کے عمل میں ہم آہنگی کا پابند ہوگا۔

"تو کیا ہوگا اگر واقعہ کم سنگین ہے؟" اس سوال پر سوال کرتے ہوئے، مندوب Nguyen Huu Toan نے مشورہ دیا کہ اسے سنبھالنے سے پہلے سنجیدہ ہونے تک انتظار کرنے کی بجائے ایک انتباہ ہونا چاہیے۔ کیونکہ مصنوعی ذہانت کے استعمال میں اگر کوئی واقعہ سنگین سطح پر پیش آتا ہے تو اس کے پھیلاؤ کی رفتار بہت تیز اور بہت زیادہ ہوتی ہے۔
مندوب Nguyen Huu Toan نے تجویز پیش کی کہ اس سطح سے نیچے، صارفین اور سپلائرز کے لیے انتباہ ہونا چاہیے۔ مندوب نے مزید کہا کہ "آنے والے وقت میں مصنوعی ذہانت کے استعمال کی نگرانی اور جانچ انتہائی ضروری ہے تاکہ ہر کسی کے لیے سلامتی، نظم و نسق، سماجی تحفظ کے ساتھ ساتھ خوشی کو یقینی بنایا جا سکے۔"
مصنوعی ذہانت میں اخلاقی مسائل کے بارے میں، قانون کا مسودہ واضح طور پر قومی مصنوعی ذہانت کے اخلاقی فریم ورک (آرٹیکل 27) اور عوامی شعبے میں مصنوعی ذہانت کا اطلاق کرتے وقت اخلاقی ذمہ داریوں اور اثرات کی تشخیص کو واضح کرتا ہے (آرٹیکل 28)۔
"تو اس کا حساب نجی شعبے یا دیگر شعبوں کے لیے کیسے لگایا جاتا ہے جو لوگوں یا دیگر ایجنسیوں اور پالیسیوں پر اثر انداز ہوتے ہیں؟"
مندوب Nguyen Thi Lan Anh نے تجویز پیش کی کہ نجی شعبے تک اخلاقی ذمہ داری کو بڑھانا ضروری ہے اور کاروباری اداروں کو عوامی طور پر اخلاقیات کا داخلی ضابطہ تیار کرنے کی ضرورت ہے۔ اخلاقی اصولوں اور قانونی ذمہ داریوں میں واضح طور پر فرق کریں تاکہ اطلاق میں مستقل مزاجی اور فزیبلٹی کو یقینی بنایا جا سکے۔
ایک ہی وقت میں، مسودہ قانون کو بنیادی اخلاقی اصولوں کی تکمیل کرنے کی ضرورت ہے جیسے: لوگوں کا احترام، انصاف پسندی، شفافیت اور اعلی خطرے والے مصنوعی ذہانت کے نظام کے لیے لازمی اثرات کی تشخیص کا طریقہ کار قائم کرنا۔
ماخذ: https://daibieunhandan.vn/du-an-luat-tri-tue-nhan-tao-mo-rong-trach-nhiem-dao-duc-sang-khu-vuc-tu-nhan-10396512.html






تبصرہ (0)