في الجلسة الصباحية للجمعية الوطنية العاشرة يوم 21 نوفمبر، قدم وزير العلوم والتكنولوجيا نجوين مانه هونغ تقريرا عن مشروع قانون الذكاء الاصطناعي، وهو القانون الذي من المتوقع أن يشكل اختراقا في إنشاء ممر قانوني للتكنولوجيا الأساسية في هذا العصر.
وبحسب الوزير، فإن هدف القانون ليس فقط تعزيز الابتكار وتعزيز القدرة التنافسية الوطنية، بل أيضًا إدارة المخاطر وحماية حقوق الإنسان والأمن الرقمي والسيادة ، وتأسيس سياسات مهمة للحزب والدولة بشأن تطوير الذكاء الاصطناعي.

وزير العلوم والتكنولوجيا نجوين مانه هونغ.
من أهمّ مبادئ مشروع القانون وضع الإنسان في صميم الاهتمام، انطلاقًا من مبدأ: الذكاء الاصطناعي يخدم الإنسان، لا يحلّ محلّه، ويحتفظ الإنسان بحقّه في الإشراف على القرارات المهمة. يجب أن يضمن الذكاء الاصطناعي الشفافية والمسؤولية والسلامة طوال دورة حياة التشغيل.
وتتمثل النقطة الجديدة في المسودة في أسلوب إدارة المخاطر، وتقسيم أنظمة الذكاء الاصطناعي إلى مستويات مختلفة لضمان المرونة وتشجيع التطوير والتحرك نحو استقلالية تكنولوجيا الذكاء الاصطناعي.
يرث هذا المشروع ويلغي في نفس الوقت اللوائح ذات الصلة في قانون صناعة التكنولوجيا رقم 71/2025/QH15، ويملأ "الثغرات" المفقودة لبناء نظام قانوني متزامن للذكاء الاصطناعي.
ينطبق مشروع القانون على الأفراد والمنظمات المحلية والأجنبية التي تقوم بتطوير أو توفير أو نشر أو استخدام أنظمة الذكاء الاصطناعي في فيتنام، أو إنشاء منتجات الذكاء الاصطناعي المستخدمة في فيتنام.
وسيكون هذا متوافقًا مع طبيعة تكنولوجيا الذكاء الاصطناعي العابرة للحدود ونماذج المنصات الدولية.
وقال رئيس لجنة العلوم والتكنولوجيا والبيئة نجوين ثانه هاي نيابة عن وكالة المراجعة، إن صياغة القانون في شكل قانون إطاري أمر معقول.
ومع ذلك، فإن التطور السريع للذكاء الاصطناعي يجعل من خطر ضرورة تعديل القانون في وقت قصير أمرا "ممكنا".

رئيس لجنة العلوم والتكنولوجيا والبيئة نجوين ثانه هاي.
تشير بعض الآراء إلى اعتبار قانون الذكاء الاصطناعي بمثابة "القانون الأصلي"، حيث يجب أن يضيف كل قانون متخصص فصلاً منفصلاً حول الذكاء الاصطناعي لمزامنة النظام القانوني.
وافقت اللجنة بشكل أساسي على تصنيف المخاطر إلى أربعة مستويات: منخفضة، ومتوسطة، وعالية، وغير مقبولة. إلا أن المسودة لا توفر معايير كمية أو نوعية واضحة، وتفتقر إلى لوائح تنظيمية بشأن تدابير الإدارة وأدوات التقييم، مما يُسبب ارتباكًا للشركات في تصنيف المخاطر ذاتيًا، ويثير مخاوف بشأن المسؤولية القانونية.
توصي المفوضية بمراجعة وتقليص إجراءات ما قبل التخليص الجمركي، مثل متطلبات التوثيق الفني أو سجلات التشغيل، قبل تداول المنتجات. فإذا كانت اللوائح صارمة للغاية، سترتفع تكاليف الامتثال، وسيتباطأ الابتكار، وستتراجع القدرة على جذب الاستثمارات. وترى المفوضية ضرورة التحول بقوة إلى آلية ما بعد التخليص الجمركي، بما يتماشى مع الطبيعة سريعة التغير للذكاء الاصطناعي.
فيما يتعلق بمقترح إنشاء لجنة وطنية للذكاء الاصطناعي، طلبت لجنة المراجعة توضيحًا بشأن صلاحيات التأسيس وآلية العمل والهيكل التنظيمي. ويجب أن يرتبط هذا النموذج ارتباطًا وثيقًا بالمبادرة رقم 26 - "إنشاء مركز قيادي لبحوث الذكاء الاصطناعي والتدريب عليه واختباره".
البيانات هي أساس الذكاء الاصطناعي، إلا أن مشروع القانون لا ينص بعدُ بشكل كامل على مبادئ جودة البيانات. اقترحت اللجنة إضافة مجموعة من المعايير "صحيحة - كافية - نظيفة - نشطة"، واشتراط ترابط البيانات وعدم تشتتها لتجنب الاختناقات في أبحاث الذكاء الاصطناعي ونشره.
بالإضافة إلى ذلك، يجب أن تكون هناك لوائح إلزامية بشأن الأمن والأمن السيبراني والدفاع عن نظام الذكاء الاصطناعي الوطني لمنع تسرب البيانات أو اختطافها.
اقترح رئيس لجنة العلوم والتكنولوجيا والبيئة، نغوين ثانه هاي، إضافة قسم منفصل حول استخدام الذكاء الاصطناعي في التدريب والبحث والابتكار، وهو مجال يُحقق إنجازاتٍ كبيرةً مثل "تصميم البروتينات"، واكتشاف مواد جديدة، والمحاكاة العلمية. واقترحت اللجنة إضافة قسم منفصل حول هذا المحتوى، بما في ذلك: حقوق النشر، وأمن بيانات البحث، ومشاركة البيانات، وآلية الحماية، والإعفاء من المسؤولية عند الامتثال للأنظمة.
واقترحت المفوضية أيضًا توسيع نطاق الممارسات المحظورة، بهدف تحديد المخاطر ومنعها من مراحل البحث إلى التنفيذ.
تشمل الأفعال المحظورة: استخدام الذكاء الاصطناعي للتحريض على السياسة، وتعطيل الأمن، والتلاعب بالتصويت والانتخابات؛ واستخدام الذكاء الاصطناعي لإنشاء محتوى وصور ومقاطع فيديو مزيفة للاحتيال، وإهانة الشرف، وتقسيم المجتمع أو خدمة أغراض سيئة أخرى، وما إلى ذلك.
المصدر: https://mst.gov.vn/luat-tri-tue-nhan-tao-khuyen-khich-phat-trien-ai-trong-nuoc-197251130205559985.htm






تعليق (0)