هناك حاجة إلى قواعد أخلاقية في أنشطة الذكاء الاصطناعي.
في صباح يوم 21 نوفمبر، نيابة عن لجنة العلوم والتكنولوجيا والبيئة (KH،CN&MT)، أثناء تقديم تقرير مراجعة مشروع قانون الذكاء الاصطناعي، صرح رئيس اللجنة نجوين ثانه هاي : لقد حددت المادة 27 من مشروع القانون في البداية المبادئ الأساسية، وفقًا للممارسات الدولية مثل احترام الناس والشفافية والإنصاف وعدم الإضرار وحماية الخصوصية.
ومع ذلك، وجدت لجنة العلوم والتكنولوجيا والبيئة أن عملية تطوير السياسات المتعلقة بالذكاء الاصطناعي في العديد من البلدان تبدأ غالباً بإصدار الأطر الأخلاقية والمبادئ التوجيهية، تليها عملية تقييم الممارسات لوضع اللمسات الأخيرة عليها والتحرك نحو التشريع.
بناءً على ذلك، اقترحت لجنة العلوم والتكنولوجيا والبيئة أن تقوم هيئة الصياغة بدراسة واستكمال المبادئ العامة للأخلاقيات، لتحددها الحكومة بالتفصيل . وتتضمن هذه المبادئ إشارات إلى قيم اليونسكو ومنظمة التعاون الاقتصادي والتنمية، بما في ذلك مبادئ احترام الإنسان، والإنصاف، والسلامة، والشفافية، والمساءلة، والتنمية المستدامة؛ وتشجيع الشركات على وضع مدونة أخلاقيات الذكاء الاصطناعي الداخلية الخاصة بها وفقًا لهذا الإطار، ونشرها على هيئات إدارة الدولة وفقًا لما هو منصوص عليه.

يستمتع الزوار بنموذج الروبوت البشري المعروض في معرض A80. صورة توضيحية
وفي الوقت نفسه، البحث في إضافة مبدأ "مساءلة أصحاب المصلحة عن التأثيرات الأخلاقية والاجتماعية لأنظمة الذكاء الاصطناعي طوال العملية من البحث إلى استخدام النظام"؛ وتوضيح العلاقة بين القواعد الأخلاقية (التوصية) والالتزامات القانونية (إلزامية).
بالإضافة إلى ذلك، ووفقًا للجنة العلوم والتكنولوجيا والبيئة، فإن المادة 28 من مشروع القانون تنص فقط على المسؤوليات الأخلاقية للقطاع العام، في حين أن تطبيقات الذكاء الاصطناعي في القطاع الخاص (مثل الرعاية الصحية، والمالية، والتعليم ، وغيرها) قد تُسبب أيضًا آثارًا اجتماعية وأخلاقية مماثلة. لذلك، يُوصى بأن تقوم الجهة المُعدّة للمشروع ببحث وإضافة أحكام تتعلق بالمسؤوليات الأخلاقية في القطاع الخاص، بما يضمن شمولية أحكام القانون.
إضافة لوائح محددة لحماية الأطفال
صرح رئيس لجنة العلوم والتكنولوجيا والبيئة نجوين ثانه هاي بوضوح في تقرير مراجعة مشروع القانون: بالنسبة للمواضيع المعرضة للخطر مثل الأطفال، فإن الذكاء الاصطناعي لديه أيضًا جوانب سلبية مثيرة للقلق مثل: عند الاعتماد بشكل كبير على الذكاء الاصطناعي للعثور على إجابات أو حل التمارين، فإن الأطفال معرضون لخطر فقدان الفرصة لممارسة القدرة على التفكير بشكل مستقل والتحليل والإبداع؛ معرضون لسلوك منحرف؛ قد يخطئون في اعتبار الذكاء الاصطناعي صديقًا حقيقيًا ويتصرفون بناءً على نصيحة من الذكاء الاصطناعي قد تكون غير مناسبة أو خطيرة؛ يمكن التلاعب بهم أو الاحتيال عليهم ...

يجب أن يتضمن قانون الذكاء الاصطناعي لوائح منفصلة لحماية الأطفال من الجوانب السلبية للذكاء الاصطناعي، وتوجيههم لاستخدامه بطريقة آمنة وصحية. صورة توضيحية.
استشهد رئيس لجنة العلوم والتكنولوجيا والبيئة نجوين ثانه هاي بما يلي: ينص قانون الذكاء الاصطناعي في إيطاليا على أن الأشخاص الذين تقل أعمارهم عن 14 عامًا لا يمكنهم استخدام الذكاء الاصطناعي إلا بموافقة والديهم أو الأوصياء عليهم؛ وفقًا لاقتراح حديث، يجب أن يكون عمر المستخدمين في الاتحاد الأوروبي أكثر من 16 عامًا لاستخدام الذكاء الاصطناعي دون موافقة الوالدين؛ ينص قانون التحكم في روبوتات الدردشة بالذكاء الاصطناعي في ولاية كاليفورنيا (الولايات المتحدة الأمريكية) على أن منصات الذكاء الاصطناعي ملزمة بإخطار المستخدمين الذين تقل أعمارهم عن 18 عامًا بوضوح كل 3 ساعات بأنهم يتحدثون مع روبوت دردشة، وليس إنسانًا.
وعلى هذا الأساس، توصي اللجنة بأن تقوم هيئة الصياغة بدراسة واستكمال لوائح محددة لحماية الأطفال من الجوانب السلبية للذكاء الاصطناعي، وتوجيه الأطفال إلى استخدام الذكاء الاصطناعي بطريقة آمنة وصحية، مع تعزيز دور ومسؤولية الآباء والمدارس في مراقبة وتوعية الأطفال بالذكاء الاصطناعي.
المصدر: https://phunuvietnam.vn/can-co-che-de-bao-ve-tre-em-truoc-cac-mat-trai-cua-ai-20251121112842757.htm






تعليق (0)