
قدّم رئيس لجنة العلوم والتكنولوجيا والبيئة في الجمعية الوطنية (KHCN-MT)، نجوين ثانه هاي، تقرير مراجعة مشروع القانون، قائلاً إن اللجنة وافقت على ضرورة إصدار قانون الذكاء الاصطناعي في ظل التطور الملحوظ الذي يشهده هذا المجال. فإلى جانب التطور السريع، والتطبيق الواسع النطاق، والآثار الإيجابية، يُشكّل الذكاء الاصطناعي تحديات عديدة على الصعيد الاقتصادي والاجتماعي والأمني والسلامة، بالإضافة إلى مخاطر محتملة يصعب التنبؤ بها.
توصي لجنة العلوم والتكنولوجيا والبيئة بأن تواصل هيئة الصياغة مراجعة وتقييم مستوى إضفاء الطابع المؤسسي على سياسات الحزب وتوجهاته، وخاصة فيما يتعلق بتطوير الذكاء الاصطناعي من أجل البشر والتنمية المستدامة، وتطوير تطبيقات الذكاء الاصطناعي القائمة على البيانات الضخمة بقوة للصناعات والمجالات المهمة، وجذب وتوظيف والاحتفاظ بالعلماء والخبراء و"المهندسين الرئيسيين" الرائدين في الداخل والخارج في مجال تطوير تكنولوجيا الذكاء الاصطناعي.

فيما يتعلق بسياسة الدولة بشأن الذكاء الاصطناعي، اقترحت لجنة العلوم والتكنولوجيا والبيئة إضافة بعض محتويات السياسة، وتحديدًا تعزيز الاختبار المُتحكم فيه لتقنيات الذكاء الاصطناعي المتقدمة ولكن مع وجود مخاطر محتملة؛ المحتويات: تضمن الدولة الوصول إلى بيانات ضخمة عالية الجودة لخدمة تدريب نموذج الذكاء الاصطناعي؛ لدى الدولة آلية لجذب ومكافأة الخبراء، وتوجيه تدريب الموارد البشرية بما يتماشى مع احتياجات العمل؛ لدى الدولة سياسة للتدريب المتعمق ونشر المعرفة والمهارات الرقمية الأساسية، وأخلاقيات الذكاء الاصطناعي لموظفي الخدمة المدنية، والأشخاص، وخاصة الأطفال، لاستخدام الذكاء الاصطناعي بأمان.

فيما يتعلق بآلية الاختبار المُتحكّم به للذكاء الاصطناعي، تُقرّ المفوضية بأن الاختبار خطوة حتمية في تطوير المنتجات، وخاصةً لأنظمة الذكاء الاصطناعي الجديدة وعالية المخاطر. يُعدّ السماح بالاختبار المُتحكّم به ضروريًا لتعزيز الابتكار. لذلك، من الضروري دراسة واستكمال آلية الإعفاء من المسؤولية عن المخاطر الناشئة أثناء عملية الاختبار عند امتثال المؤسسات والأفراد للأنظمة.
ومع ذلك، فقد نُظِّمت آلية الاختبار المُتحكَّم به في قانون العلوم والتكنولوجيا والابتكار، ومشروع قانون التحول الرقمي، والوثائق التوجيهية المتعلقة بصناديق الاختبار. لذلك، ولتجنب التكرار، يُقترَح أن يُنظِّم هذا القانون المحتوى المُحدَّد لاختبار أنظمة الذكاء الاصطناعي فقط؛ مع التركيز في الوقت نفسه على آلية ما بعد الفحص، وتقييم نتائج الاختبار، وضمان تبسيط الإجراءات الإدارية.
بالنسبة للفئات الضعيفة مثل الأطفال، تعتقد اللجنة أن الذكاء الاصطناعي له أيضًا جوانب سلبية مثيرة للقلق، مثل عندما يعتمد الأطفال على الذكاء الاصطناعي بشكل كبير للعثور على إجابات أو حل التمارين، فإنهم يفقدون الفرصة لممارسة التفكير المستقل والتحليل والإبداع؛ ويكونون عرضة للسلوك المنحرف؛ وقد يخطئون في اعتبار الذكاء الاصطناعي صديقًا حقيقيًا ويتصرفون بناءً على نصائح من الذكاء الاصطناعي قد تكون غير مناسبة أو خطيرة؛ وقد يتعرضون للتلاعب أو الاحتيال.
استشهدت وكالة التفتيش بالخبرة من دول أخرى، والتي تُظهر أن قانون الذكاء الاصطناعي في إيطاليا ينص على أن الأشخاص الذين تقل أعمارهم عن 14 عامًا لا يمكنهم استخدام الذكاء الاصطناعي إلا بموافقة والديهم أو الأوصياء عليهم؛ وفقًا لاقتراح حديث، يجب أن يكون عمر المستخدمين في الاتحاد الأوروبي أكثر من 16 عامًا لاستخدام الذكاء الاصطناعي دون موافقة الوالدين؛ ينص قانون التحكم في روبوتات الدردشة بالذكاء الاصطناعي في ولاية كاليفورنيا (الولايات المتحدة الأمريكية) على أن منصات الذكاء الاصطناعي ملزمة بإخطار المستخدمين الذين تقل أعمارهم عن 18 عامًا بوضوح كل 3 ساعات بأنهم يتحدثون مع روبوت دردشة وليس إنسانًا.
لذلك، توصي اللجنة بأن تقوم هيئة الصياغة بدراسة واستكمال اللوائح المحددة لحماية الأطفال من الجوانب السلبية للذكاء الاصطناعي، وتوجيه الأطفال لاستخدام الذكاء الاصطناعي بطريقة آمنة وصحية، مع تعزيز دور ومسؤولية الآباء والمدارس في مراقبة وتوعية الأطفال بالذكاء الاصطناعي.
المصدر: https://www.sggp.org.vn/can-co-quy-dinh-rieng-nham-bao-ve-tre-em-truoc-mat-trai-cua-ai-post824617.html






تعليق (0)