ينبغي أن تكون اللوائح مفتوحة.
استمراراً للدورة العاشرة، ناقش مجلس الأمة صباح يوم 21 نوفمبر/تشرين الثاني، في مجموعات، مشروع قانون الذكاء الاصطناعي.
وبعد إبداء الآراء في المجموعة الرابعة (بما في ذلك وفود الجمعية الوطنية من مقاطعات خان هوا ، ولاي تشاو، ولاو كاي)، اتفق المندوبون بشكل أساسي على ضرورة إصدار القانون.

وفقًا لنائب الجمعية الوطنية، نجوين هو توان ( لاي تشاو )، يُعدّ إصدار قانون الذكاء الاصطناعي في الوقت الحالي أمرًا بالغ الأهمية. وأضاف: "لقد قمنا باستعدادات جيدة نسبيًا لعرض هذا القانون على الجمعية الوطنية".
صرحت النائبة في الجمعية الوطنية، نغوين ثي لان آنه (لاو كاي)، بأن عدد الدول التي أصدرت قانون الذكاء الاصطناعي حتى الآن قليل جدًا، وبالتالي فإن المراجع في عملية إصدار القانون محدودة أيضًا. وأكدت أن "هذا لا يعني عدم إصداره".
مع ذلك، أشارت المندوبة نجوين ثي لان آنه إلى ضرورة مراعاة عامل "الانفتاح" عند إصدار القانون، لأن التكنولوجيا تتطور باستمرار يومًا بعد يوم. وأضافت: "إذا صدر القانون في إطار ضيق، فلن نتمكن من تعزيز مجال التكنولوجيا المبتكرة دون توخي الحذر".
دراسة وضع لوائح حكومية لضمان الحق في التمتع بفوائد الذكاء الاصطناعي
وفي تعليقات محددة، قال المندوب نجوين هوو توان إن مشروع القانون ينص على موضوعات التطبيق (المادة 2) على النحو التالي: الوكالات والمنظمات والأفراد الفيتناميون والمنظمات والأفراد الأجانب الذين لديهم أنشطة تطوير وتوفير ونشر واستخدام أنظمة الذكاء الاصطناعي في فيتنام، أو لديهم أنظمة الذكاء الاصطناعي التي تنتج نتائج تستخدم في فيتنام .
ومع ذلك، ينص نطاق التنظيم (البند 2، المادة 1) على ما يلي: لا ينطبق هذا القانون على أنظمة الذكاء الاصطناعي التي تم تطويرها وتوفيرها ونشرها واستخدامها حصريًا لأغراض الدفاع والأمن والاستخبارات والتشفير.
وبحسب المندوب فإن تنفيذ هذا القانون يجب أن يضمن أيضًا الدفاع والأمن الوطنيين، لأن هناك منتجات ذكاء اصطناعي يتم توفيرها من خارج الحدود إلى فيتنام.

لذلك، لا ينبغي لمشروع القانون أن يعتبر "أنظمة الذكاء الاصطناعي المُطوّرة والمُقدّمة والمُنشرة والمُستخدمة حصرًا لأغراض الدفاع والأمن والاستخبارات والتشفير" نقطة استثناء. بل ينبغي تنظيمه بحيث تُسند مهمة البحث والتطوير والتوفير والنشر واستخدام أنظمة الذكاء الاصطناعي لأغراض الدفاع والأمن والاستخبارات والتشفير إلى وزارة الدفاع الوطني أو وزارة الأمن العام للتوجيه.
كما تنص المادة الأولى في البند الثاني على ما يلي: لا يسري هذا القانون على أنظمة الذكاء الاصطناعي أو نماذج الذكاء الاصطناعي التي يتم تطويرها وتوفيرها ونشرها واستخدامها فقط في النطاق الداخلي لمنشآت البحث العلمي والتدريب والتطوير ولم يتم استغلالها أو تقديمها إلى أطراف ثالثة.
وأكد المندوب نجوين هوو توان أن أنظمة الذكاء الاصطناعي المستخدمة في نطاق مرافق البحث لا تخضع للقانون، مشيرا إلى أنه إذا كان النظام ينتهك القانون فيجب التعامل معه.
في الواقع، هناك أنظمة داخلية صغيرة جدًا، وأنظمة داخلية كبيرة جدًا أيضًا. وأكد المندوب أن "الاستخدام الداخلي يجب أن يتوافق مع الشروط واللوائح"، وأن القانون يجب أن يتضمن لوائح.
ينص مشروع القانون تحديدًا على ثماني سياسات حكومية بشأن الذكاء الاصطناعي (المادة 5). وأبدى المندوب نجوين هوو توان موافقته على هذه السياسات، واقترح توضيح بعض النقاط.
وتنص المادة 5 من الفقرة 3 على وجه التحديد على ما يلي: تضمن الدولة حق المنظمات والأفراد في الوصول إلى الذكاء الاصطناعي والتعلم منه والاستفادة من فوائده؛ وتشجع على تطوير مجتمع رقمي شامل وجامع.
وفقًا للمندوب، من المناسب للدولة ضمان حق الوصول إلى الذكاء الاصطناعي. ومع ذلك، للتمتع بفوائده، يجب على المستخدمين أيضًا إنفاق أموالهم الخاصة لاستثماره وتطبيقه في بيئة الإنتاج والأعمال...؛ والدولة غير مُلزمة بضمان ذلك بشكل كامل. لذلك، من الضروري مراجعة هذه اللائحة وفقًا لذلك.
وفيما يتعلق بمستوى مخاطر أنظمة الذكاء الاصطناعي، فإن المادة 7 من مشروع القانون تقسمها إلى 4 أنواع: المخاطر غير المقبولة، المخاطر العالية، المخاطر المتوسطة، المخاطر المنخفضة.
مع ذلك، ووفقًا للمندوب نجوين هوو توان، فإن تطبيق هذا التصنيف عمليًا يختلف باختلاف الفئات المستهدفة. على سبيل المثال، هناك نوع من المخاطر المتوسطة لا يؤثر على البالغين، بل يؤثر على الأطفال؛ أو في المناطق ذات ظروف الوصول الأقل، يصبح عالي المخاطر...
ولذلك اقترح المندوبون أن يتم تعريف كل نوع من أنواع المخاطر بشكل واضح وتطبيقه على كل موضوع ويجب أن تكون هناك تحذيرات، على سبيل المثال، هناك مظلات منخفضة المخاطر يتم توفيرها للبالغين فقط وليس للأطفال.
بناء نظام مراقبة وتحذير الحوادث
من القضايا التي تهمّ المندوبين بشدة إدارة ومعالجة حوادث الذكاء الاصطناعي. يُعرّف مشروع القانون الحادث الخطير بأنه أي حادث تقني في أنشطة الذكاء الاصطناعي يُسبب، أو يُهدد، بعواقب وخيمة على حياة الإنسان أو صحته أو ممتلكاته أو بياناته أو أمنه أو نظامه الاجتماعي.
وحلل المندوب نجوين ثي لان آنه أنه في المجال الطبي هناك العديد من المستويات المختلفة، وكذلك الأمن.

ما هي إذن آلية تقييم هذه الحادثة؟ أي جهة، وأي آلية ستُبلغ؟ لأن هناك أمورًا بالغة الخطورة عند اكتشافها بعد وقوع الحادثة، وخاصةً في المجال الطبي، الذي يرتبط ارتباطًا مباشرًا بحياة الإنسان.
في معرض طرحها لهذه المسألة، قالت المندوبة نجوين ثي لان آنه إنه يجب علينا تصميم نظام عمليات. أولًا، يجب أن نتحدث عن عملية المعالجة، ومن يتولى إدارتها، وعلى أي مستوى سيتم إصدار الإنذارات؟ ثانيًا، يجب أن يكون هناك نظام للرصد والإنذار المبكر. هذا أمر بالغ الأهمية، وإذا أردنا إنذارًا مبكرًا، يجب ضمان إدخال البيانات.
وبحسب المندوبة نجوين ثي لان آنه، فإن مسألة المسؤولية يجب أن تكون واضحة للغاية: هل هي مسؤولية مطور النموذج، أو وكالة الإدارة، أو المستخدم النهائي؟
باختصار، يرى المندوبون ضرورة تصنيف وتعريف أنواع محددة من حوادث الذكاء الاصطناعي. وبناء نظام رصد وإنذار للحوادث، وتحديد إجراءات التعامل مع كل فئة من فئات المخاطر، وزيادة الدعم الفني والقانوني للأطراف المعنية، وتوضيح المسؤوليات القانونية المتعلقة بآليات التعويض. وهذا من شأنه ضمان أمن وسلامة الشبكة.
تنص المادة 10 من البند 2 من مشروع القانون على ما يلي: عندما يتعرض نظام الذكاء الاصطناعي لحادث خطير، يكون مطور النظام والمورد والجهة المنفذة لنظام الذكاء الاصطناعي مسؤولين عن: أ) يجب على مطور النظام والمورد تطبيق التدابير الفنية على الفور لإصلاح النظام أو تعليقه أو إلغائه وإخطار السلطة المختصة؛ ب) يلتزم الطرف المنفذ والمستخدم بتسجيل الحادث وإخطاره على الفور والتنسيق في عملية العلاج.

ماذا لو كان الحادث أقل خطورة؟ في معرض تساؤله، اقترح المندوب نجوين هو توان إصدار تحذير، بدلًا من الانتظار حتى يصبح الأمر خطيرًا قبل معالجته. ففي تطبيقات الذكاء الاصطناعي، إذا وقع حادث خطير، فإن سرعة انتشاره تكون كبيرة جدًا.
اقترح المندوب نجوين هو توان أنه في حال عدم تجاوز هذا المستوى، يجب إصدار تحذيرات للمستخدمين والموردين. وأضاف المندوب: "إن مراقبة استخدام الذكاء الاصطناعي والتحقق منه أمر بالغ الأهمية في المرحلة المقبلة لضمان الأمن والنظام والسلامة الاجتماعية وسعادة الجميع".
وفيما يتعلق بالقضايا الأخلاقية في مجال الذكاء الاصطناعي، ينص مشروع القانون بوضوح على الإطار الأخلاقي الوطني للذكاء الاصطناعي (المادة 27) والمسؤوليات الأخلاقية وتقييم الأثر عند تطبيق الذكاء الاصطناعي في القطاع العام (المادة 28).
"فكيف يتم حساب ذلك بالنسبة للقطاع الخاص أو المجالات الأخرى التي لها تأثير على الأشخاص أو الوكالات والسياسات الأخرى؟"
واقترح المندوب نجوين ثي لان آنه أنه من الضروري توسيع نطاق المسؤولية الأخلاقية لتشمل القطاع الخاص وإلزام الشركات بتطوير مدونة أخلاقية داخلية بشكل علني؛ والتمييز بوضوح بين المبادئ الأخلاقية والالتزامات القانونية لضمان الاتساق والجدوى في التطبيق.
وفي الوقت نفسه، يتعين على مشروع القانون أن يكمل المبادئ الأخلاقية الأساسية مثل: احترام الناس، والإنصاف، والشفافية، وإنشاء آليات إلزامية لتقييم الأثر لأنظمة الذكاء الاصطناعي عالية المخاطر.
المصدر: https://daibieunhandan.vn/du-an-luat-tri-tue-nhan-tao-mo-rong-trach-nhiem-dao-duc-sang-khu-vuc-tu-nhan-10396512.html






تعليق (0)