مصنوعی ذہانت کے نظام کو چار خطرے کی سطحوں میں درجہ بندی کرنا
21 نومبر کی صبح قومی اسمبلی نے آرٹیفیشل انٹیلی جنس سے متعلق مسودہ قانون کی جانچ پڑتال پر پریزنٹیشن اور رپورٹ سنی۔
رپورٹ پیش کرتے ہوئے، سائنس اور ٹیکنالوجی کے وزیر Nguyen Manh Hung نے کہا کہ مسودہ قانون مصنوعی ذہانت کے لیے ایک اہم قانونی راہداری بنانے، اختراع کو فروغ دینے، قومی مسابقت کو بڑھانے، اور ساتھ ہی خطرات کے انتظام، قومی مفادات، انسانی حقوق اور ڈیجیٹل خودمختاری کے تحفظ کے لیے سازگار قانونی ماحول پیدا کرنے کے لیے بنایا گیا تھا۔

سائنس اور ٹیکنالوجی کے وزیر Nguyen Manh Hung نے رپورٹ پیش کی۔
مصنوعی ذہانت کے نظام کو منظم کرنے کے لیے، مسودہ قانون نے خطرے پر مبنی انتظامی انداز اپنایا ہے، جس میں مصنوعی ذہانت کو چار درجوں میں درجہ بندی کیا گیا ہے اور متعلقہ ذمہ داریاں عائد کی گئی ہیں۔
مصنوعی ذہانت کے نظام کو خطرے کی چار سطحوں میں درجہ بندی کیا گیا ہے: ناقابل قبول خطرہ: اس نظام میں سنگین، ناقابل تلافی نقصان پہنچانے کی صلاحیت ہے۔
زیادہ خطرہ وہ نظام ہے جو زندگی، صحت، حقوق اور جائز مفادات کو نقصان پہنچا سکتا ہے۔ درمیانہ خطرہ وہ نظام ہے جس میں صارفین کو الجھانے، جوڑ توڑ یا دھوکہ دینے کا خطرہ ہوتا ہے۔ کم خطرہ باقی معاملات ہیں۔
فراہم کنندہ کو گردش سے پہلے نظام کی خود درجہ بندی کرنی چاہیے اور درجہ بندی کے نتائج کا ذمہ دار ہے۔
درمیانے اور زیادہ خطرے والے نظاموں کے لیے، سپلائر کو ون اسٹاپ پورٹل کے ذریعے وزارت سائنس اور ٹیکنالوجی کو مطلع کرنا چاہیے۔ مجاز اتھارٹی کو درجہ بندی کا جائزہ لینے اور دوبارہ جائزہ لینے کا حق حاصل ہے۔
قانون شفافیت، لیبلنگ اور جوابدہی کی ذمہ داری کا تعین کرتا ہے۔ خاص طور پر، نفاذ کرنے والے فریق کو جعلی عناصر کے ساتھ تخلیق یا ترمیم شدہ مواد کو واضح طور پر مطلع اور لیبل کرنا چاہیے، حقیقی لوگوں (ڈیپ فیک) کی نقل کرنا چاہیے جو غلط فہمی کا سبب بن سکتا ہے، یا مواصلات اور اشتہاری مقاصد کے لیے مصنوعی ذہانت کے ذریعے تخلیق کردہ مواد۔
سپلائی کرنے والوں اور لاگو کرنے والوں کو متاثرہ فریقوں کی طرف سے درخواست کرنے پر ہائی رسک سسٹم ہینڈلنگ کے نتائج کی وضاحت کرنی چاہیے۔
کسی واقعے کی صورت میں، فریقین سسٹم کو فوری طور پر درست کرنے، معطل کرنے یا واپس لینے اور ون اسٹاپ پورٹل کے ذریعے اس کی اطلاع دینے کے ذمہ دار ہیں۔ خطرے کے انتظام کے مقاصد کے لیے، ناقابل قبول خطرے کے ساتھ، ان سسٹمز کو کسی بھی شکل میں تیار، سپلائی، تعینات یا استعمال کرنے سے منع کیا گیا ہے۔
ممنوعہ فہرست میں قانون کے ذریعے ممنوعہ کارروائیوں کے لیے استعمال کیے جانے والے نظام، دھوکہ دہی، ہیرا پھیری اور سنگین نقصان پہنچانے کے لیے جعلی عناصر کا استعمال، کمزور گروہوں (بچوں، بوڑھوں، وغیرہ) کی کمزوریوں کا فائدہ اٹھانا، یا قومی سلامتی کو شدید نقصان پہنچانے والے جعلی مواد کی تخلیق شامل ہیں۔
ہائی رسک سسٹم کے لیے، ہائی رسک سسٹم کو گردش کرنے یا استعمال میں لانے سے پہلے مناسب ہونے کا اندازہ لگانا چاہیے۔
تشخیص مطابقت کے سرٹیفیکیشن کی شکل میں ہو سکتا ہے (ایک تسلیم شدہ ادارہ کے ذریعہ انجام دیا جاتا ہے) یا مطابقت کی نگرانی (سپلائر کی طرف سے خود تشخیص)۔
وزیر اعظم اعلی خطرے والے مصنوعی ذہانت کے نظاموں کی فہرست تجویز کرتے ہیں جو تشخیص کی ہر شکل سے مطابقت رکھتے ہیں۔
سپلائر (خطرے کے انتظام کے اقدامات کا قیام، تربیتی ڈیٹا کا انتظام، تکنیکی دستاویزات کی تیاری، انسانی نگرانی کو یقینی بنانا) اور نافذ کرنے والے (مطلوبہ مقصد کے لیے کام کرنا، حفاظت کو یقینی بنانا، شفافیت کی ذمہ داریوں کو پورا کرنا) کے لیے تفصیلی ذمہ داریاں مقرر کی گئی ہیں۔
ہائی رسک سسٹم والے غیر ملکی سپلائرز کے پاس ویتنام میں ایک بااختیار نمائندہ ہونا ضروری ہے، اور اگر یہ نظام لازمی مطابقت کے سرٹیفیکیشن سے مشروط ہے تو اسے ویتنام میں ایک قانونی ادارہ قائم کرنا چاہیے۔
درمیانے، کم خطرے اور کثیر مقصدی ماڈلز کے لیے، درمیانے خطرے کے نظام کو شفافیت اور لیبلنگ کو یقینی بنانا چاہیے۔
مسودہ ویتنامی قانون کی تعمیل کو یقینی بنانے کے لیے عام مقصد کے مصنوعی ذہانت کے ماڈلز کے ڈویلپرز اور استعمال کنندگان کی ذمہ داریوں کو بھی متعین کرتا ہے۔ بہتر ذمہ داریاں GPAI ماڈلز پر لاگو ہوتی ہیں جن میں نظامی خطرہ (دور رس اثرات کے لیے ممکنہ) شامل ہیں، بشمول اثرات کی تشخیص، تکنیکی ریکارڈ رکھنے اور سائنس اور ٹیکنالوجی کی وزارت کو اطلاع دینا۔
تاہم، اوپن سورس کے عمومی مقصد کے AI ماڈلز ان بہتر ذمہ داریوں سے مستثنیٰ ہیں؛ جہاں ایک اوپن سورس ماڈل کو AI سسٹم تیار کرنے کے لیے استعمال کیا جاتا ہے، استعمال کرنے والی تنظیم کو اس سسٹم کا رسک مینجمنٹ کرنا چاہیے۔
لاگت کو کم کرنے کے لیے پوشیدہ لیبلنگ استعمال کرنے پر غور کریں۔
امتحانی نقطہ نظر سے، سائنس، ٹیکنالوجی اور ماحولیات پر کمیٹی کے چیئرمین Nguyen Thanh Hai نے کہا کہ کمیٹی کو معلوم ہوا ہے کہ AI پروڈکٹس کو لیبل لگانا AI دور میں اعتماد پیدا کرنے کے لیے ایک اخلاقی اور قانونی ذمہ داری ہے۔

سائنس، ٹیکنالوجی اور ماحولیات پر کمیٹی کے چیئرمین Nguyen Thanh Hai.
بنیادی طور پر مسودہ قانون میں لیبلنگ کی دفعات سے اتفاق کرتے ہوئے، تاہم، کمیٹی ویتنام کے عملی حالات کے ساتھ مطابقت کو یقینی بنانے کے لیے AI سے تیار کردہ مصنوعات پر بین الاقوامی تجربے کا حوالہ دینے کی سفارش کرتی ہے۔
AI ایپلی کیشنز والے پروڈکٹس اور ہارڈویئر ڈیوائسز کے لیے (جیسے کہ ریفریجریٹرز، TVs، واشنگ مشینیں وغیرہ)، یہ تجویز کی جاتی ہے کہ لاگت اور طریقہ کار کو کم کرنے کے لیے غیر مرئی واٹر مارکس کو تحقیق کریں اور ان پر غور کریں جبکہ انتظام اور ٹریس ایبلٹی کو یقینی بنایا جائے۔
ساتھ ہی، مسودہ قانون میں حکومت کو فارم، تکنیکی معیارات اور استثنیٰ کے بارے میں تفصیلی ہدایات فراہم کرنے کے اصول مقرر کرنے کی تجویز ہے۔
کم از کم تکنیکی رہنمائی کے ساتھ لیبلنگ ریگولیشن کو لازمی سے تجویز کردہ میں تبدیل کرنے کی تجویز ہے۔
ایک ہی وقت میں، متعدد شعبوں میں رضاکارانہ لیبلنگ میکانزم کو پائلٹ کرنا ضروری ہے۔ ایک ہی وقت میں، اس غلط فہمی سے بچنے کے لیے مواصلات کو مضبوط کریں کہ "کوئی لیبل کا مطلب AI پروڈکٹ نہیں ہے"۔
خطرے کی درجہ بندی کے بارے میں، کمیٹی سمجھتی ہے کہ چار درجے کی درجہ بندی جب کہ مصنوعات اور سامان کے معیار کا قانون مصنوعات اور اشیا کو تین اقسام میں درجہ بندی کرتا ہے اگر AI کو مصنوعات اور سامان کے طور پر سمجھا جاتا ہے تو یہ متضاد ہے۔
اعلی خطرے والے مصنوعی ذہانت کے نظاموں کے لیے مطابقت کی تصدیق کے ضوابط پروڈکٹ اور سامان کے معیار کے قانون میں تجویز کردہ اعلی خطرے والی مصنوعات اور اشیا کے انتظام کے اصولوں سے مطابقت نہیں رکھتے۔
لہذا، یہ تجویز کیا جاتا ہے کہ مسودہ قانون کی دفعات کا موجودہ قوانین کے ساتھ جائزہ لینا اور احتیاط سے موازنہ کرنا جاری رکھیں۔
ماخذ: https://mst.gov.vn/de-xuat-dung-ai-de-truyen-thong-quang-cao-phai-dan-nhan-thong-bao-ro-197251125140252967.htm










تبصرہ (0)