في التاسع من مايو، ناقش نواب المجلس الوطني في قاعة المجلس عددًا من البنود التي تباينت آراء المشاركين بشأنها في مشروع قانون صناعة التكنولوجيا الرقمية . وعلى وجه الخصوص، استمرت الملاحظات على اللوائح المتعلقة بالذكاء الاصطناعي لضمان جدواها وتوافقها مع الممارسات الدولية.
وفي معرض مساهمته في جلسة المناقشة، قال المندوب دو نغوك ثينه (وفد خانه هوا ) إن تعريف الذكاء الاصطناعي في المادة 10، المادة 3 من مشروع القانون لا يعكس بدقة طبيعة التكنولوجيا ولا يتوافق مع النهج الدولي.
واقترح الرجوع إلى تعريف منظمة التعاون الاقتصادي والتنمية (OECD)، الذي اعتمدته العديد من الدول والاتحاد الأوروبي. وبناءً عليه، يُفهم الذكاء الاصطناعي على أنه "نظام آلي يُحقق هدفًا صريحًا أو ضمنيًا من خلال الاستدلال من بيانات الإدخال لإنتاج مخرجات على شكل تنبؤات أو توصيات أو قرارات تؤثر على بيئة مادية أو افتراضية".
وأكد المندوب ثينه أن توفير تعريف مناسب يشكل أساسًا مهمًا لبناء لوائح إدارية فعالة، مع تسهيل تطبيق التكنولوجيا في الممارسة العملية أيضًا.
فيما يتعلق بتصنيف أنظمة الذكاء الاصطناعي (المادة 46)، قيّم وفد خان هوا أن اللوائح الحالية تتشابه مع قانون الاتحاد الأوروبي للذكاء الاصطناعي، إلا أنها تتضمن أيضًا نقاطًا غير واضحة. ووفقًا للاتحاد الأوروبي، يُصنف الذكاء الاصطناعي أساسًا وفقًا لمستوى المخاطر، من "غير مقبول" إلى "ضئيل". ومع ذلك، يضيف مشروع القانون الفيتنامي مجموعة من "أنظمة الذكاء الاصطناعي ذات التأثير العالي"، والتي قد تتداخل أو تتعارض مع مجموعة "المخاطر العالية".
قال السيد ثينه: "إذا لم يُربط هذا التصنيف بمسؤوليات محددة في أحكام أخرى، فسيكون من الصعب تنفيذه وسيفتقر إلى الاتساق". وفي الوقت نفسه، اقترح توضيح فلسفة التصنيف وضمان تطبيق اللوائح فقط على أنظمة الذكاء الاصطناعي عالية المخاطر، وتجنب التشديد غير الضروري على الأنظمة منخفضة المخاطر، وبالتالي دعم الابتكار والاستفادة الفعالة من إمكانات التكنولوجيا.
أعربت المندوبة لي ثي ثانه لام (وفد هاو جيانج) عن رأيها المماثل بشأن غموض اللائحة، مشيرةً إلى أن تعريف أنظمة الذكاء الاصطناعي عالية المخاطر في البند 1 من المادة 46 لا يزال عامًا، دون تحديد معايير محددة، مثل مستوى التأثير، أو عدد المستخدمين، أو سعة البيانات، لتحديد المخاطر. وأضافت السيدة لام: "بدون معايير محددة، يصعب تطبيقها عمليًا".
أشارت السيدة لام أيضًا إلى أنه قد لا يكون من الضروري تنظيم التكنولوجيا بالتفصيل، بل ينبغي التركيز على إدارة سلوك استخدام التكنولوجيا. وعلى وجه الخصوص، فيما يتعلق بمسؤوليات مطوري الذكاء الاصطناعي في المادة 48، قالت إن بعض الالتزامات تُثقل كاهل هذا الموضوع، لا سيما في سياق تكنولوجيا المصدر المفتوح.
واقترح المندوب لوو با ماك (وفد لانغ سون) إضافة لوائح تتطلب فحص وتقييم أنظمة الذكاء الاصطناعي ذات مستويات المخاطر العالية أو التأثيرات الكبيرة على المجتمع من قبل منظمة مستقلة تعينها أو تعترف بها الدولة قبل وضعها موضع الاستخدام.
حاليًا، لا تُحدد المادة 44 من مشروع القانون سوى ستة مبادئ لتطوير الذكاء الاصطناعي واستخدامه، وتُكلّف الوزارات والقطاعات بتوجيه تنفيذها. وتُشير المادة 46 إلى إدارة أنظمة الذكاء الاصطناعي (بما في ذلك الأنظمة عالية المخاطر والتأثير)، لكنها لا تنص بوضوح على آلية تفتيش مستقلة قبل النشر.
وعلى الرغم من أن الفقرة 5، المادة 46 تنص على أن الحكومة ستقدم لوائح مفصلة، إلا أنه وفقًا للسيد ماك، يجب أن يكون هناك مبدأ واضح في القانون بشأن التفتيش المستقل، من أجل زيادة الشفافية وفعالية إدارة الدولة وخلق راحة البال للأشخاص والشركات عند استخدام الذكاء الاصطناعي، وخاصة في سياق التحول الرقمي الحالي.
وفيما يتعلق بالبند 1، المادة 47، ينص المشروع على أن أنظمة الذكاء الاصطناعي التي تتفاعل مباشرة مع البشر يجب أن تُخطر المستخدمين، ما لم يكن المستخدم "يعلم بوضوح" أنه يتفاعل مع الذكاء الاصطناعي.
وفقًا لوفد لانغ سون، فإن هذا التعبير غير واضح لأن "العلم الواضح" مفهوم نسبي، ويعتمد على مستوى كل شخص وخبرته وظروفه. يستطيع المطلعون على التكنولوجيا تمييز الذكاء الاصطناعي بسهولة، بينما لا يستطيع ذلك كبار السن وغير المطلعين عليها. وبالتالي، يمكن استخدام هذا التعبير لإخفاء طبيعة الذكاء الاصطناعي، مما يُلحق الضرر بالمستخدمين.
لذلك، اقترح السيد ماك مراجعة اللائحة بحيث تُلزم أنظمة الذكاء الاصطناعي التي تتفاعل مع البشر بإخطار المستخدمين بوضوح وسهولة بتفاعلهم مع الذكاء الاصطناعي. وينبغي تفعيل هذا الإخطار افتراضيًا، وليس إخفاؤه أو إيقافه تلقائيًا، إلا إذا اختار المستخدم إيقافه برغبته.
المصدر: https://doanhnghiepvn.vn/cong-nghe/de-xuat-chi-siet-chat-ai-co-rui-ro-cao-tranh-can-tro-doi-moi-sang-tao/20250510094811591
تعليق (0)