استناداً إلى الخبرة المكتسبة في العديد من البلدان ومبادئ اليونسكو، تعمل فيتنام على بناء اللوائح اللازمة لتطوير الذكاء الاصطناعي بشكل أخلاقي ومسؤول.
وفي ورشة عمل بعنوان "التطوير المسؤول وتطبيق الذكاء الاصطناعي: النظرية والتطبيق"، التي عقدت صباح يوم 28 فبراير في جامعة الحقوق بجامعة فيتنام الوطنية، قال نائب وزير العلوم والتكنولوجيا بوي ذي دوي إن أخلاقيات الذكاء الاصطناعي هي قضية عالمية معقدة تجذب العديد من البلدان والمنظمات في جميع أنحاء العالم للمشاركة في إيجاد حلول لها، بما في ذلك اليونسكو.
اليونسكو منظمة تُركز على الثقافة والتعليم . ومع ذلك، ولأول مرة، أدرجت هذه المنظمة الذكاء الاصطناعي - وهو موضوع مرتبط بالتكنولوجيا - في مناقشاتها. وقد دفعت هذه الخطوة بعض الدول التي انسحبت من المنظمة إلى اتخاذ قرار بالانضمام مجددًا، على حد قوله.
وفقًا لنائب الوزير، تؤثر أخلاقيات الذكاء الاصطناعي على جوانب عديدة من الحياة، كالمجتمع والقانون والمنافسة السياسية والتجارية. ولكي يتطور الذكاء الاصطناعي بمسؤولية، يجب أن تُؤخذ الإدارة على محمل الجد، بدءًا من مرحلة تحديد نماذج الذكاء الاصطناعي، وجمع البيانات، ووصولًا إلى استكمال النظام وتطبيقه. في الواقع الفيتنامي، تتطلب هذه العملية تنسيقًا بين المهندسين والعلماء والهيئات الإدارية، مثل وزارة العلوم والتكنولوجيا، ووزارة المعلومات والاتصالات، ووزارة الأمن العام .
خلال الورشة، صرّح السيد دوي بأنّ مبادئ اليونسكو تُشكّل أساسًا للدول لوضع لوائح أخلاقية للذكاء الاصطناعي. أولًا، يجب أن يتوافق نموذج الذكاء الاصطناعي مع التصميم والمهام المُحدّدة منذ البداية، لضمان عدم وجود أفعال مُدمّرة تُلحق الضرر بالبشر.
قال: "الذكاء الاصطناعي مختلف تمامًا عن التقنيات التي بحثها البشر. فبينما تتبع المنتجات التقنية القديمة أهدافًا قائمةً فقط، يمكن للذكاء الاصطناعي أن يُنشئ اتجاهات جديدة، خارج نطاق سيطرة المطور". كما قدم نائب الوزير مثالًا على حالة سمح فيها العلماء لنظامي حاسوب بالتحدث باللغة الإنجليزية. ولكن بعد فترة، تحولا فجأةً إلى التواصل بلغة غريبة، مما جعل من المستحيل على فريق البحث استيعاب محتوى المحادثة.
تُعدّ مسألة المساواة والإنصاف أيضًا موضع قلق عند بناء نموذج الذكاء الاصطناعي. ووفقًا للسيد دوي، فمنذ مرحلة جمع المعلومات لتدريب الذكاء الاصطناعي، قد يحدث عدم مساواة، مما يؤثر سلبًا على النظام بأكمله.
فيما يتعلق بنموذج التعرف على الصوت بالذكاء الاصطناعي، أشار إلى أنه إذا اقتصرت مصادر البيانات على سكان هانوي فقط، فسيكون النظام متحيزًا عند التفاعل مع أشخاص من مناطق أخرى. وأضاف: "على نطاق أوسع، قد تُسبب مصادر بيانات الذكاء الاصطناعي ظلمًا بين الجنسين وفئات المجتمع، مثل الأشخاص ذوي الإعاقة". لذلك، لتحقيق تطوير عادل للذكاء الاصطناعي، بالإضافة إلى مشاركة الخبراء القانونيين، لا بد من مساهمة علماء النفس وعلماء الاجتماع.
بالإضافة إلى ذلك، أكد ممثل الوزارة أيضًا على بعض المبادئ المهمة لأخلاقيات الذكاء الاصطناعي مثل ضمان أمن البيانات الشخصية واحترام حقوق النشر وحقوق الملكية الفكرية وتحسين إنتاجية العمل ولكن مع ضرورة حماية البيئة والضمان الاجتماعي.
نائب الوزير بوي ذي دوي يتحدث في ورشة العمل. تصوير: هوانغ جيانغ
وفي الورشة، قال الخبراء إن فيتنام تراقب تنفيذ اللوائح المتعلقة بتطوير الذكاء الاصطناعي المسؤول في العديد من البلدان والمناطق حول العالم، من أجل البحث وبناء إطار قانوني مناسب للممارسات المحلية.
على وجه التحديد، في نهاية عام 2023، وافق الاتحاد الأوروبي على المبادئ الواردة في قانون الذكاء الاصطناعي، ومن المتوقع نشرها في موعد لا يتجاوز الربع الثاني من عام 2024. وهذا هو القانون الأول والأكثر شمولاً حالياً، مع العديد من المبادرات للتعامل مع المخاطر الناجمة عن الذكاء الاصطناعي.
قال الدكتور دو جيانج نام، من جامعة الحقوق في جامعة فيتنام الوطنية، خلال ورشة العمل: "سيستند قانون الذكاء الاصطناعي لعام ٢٠٢٤ إلى مخاطر نماذج الذكاء الاصطناعي لتعديل القانون وفقًا لذلك، إلى جانب بيئة اختبارية ونهج "مُخفف" للأخلاقيات والموثوقية والمسؤولية". وأضاف أن التجربة التي يُمكن لفيتنام تطبيقها من قانون الذكاء الاصطناعي "لا تتمثل في وضع قانون نهائي، بل في التحديث المستمر والتكيف مع تطور تكنولوجيا الذكاء الاصطناعي".
على عكس أوروبا، تتطلع الولايات المتحدة إلى القطاع الخاص لإيجاد حلول لتطوير حوكمة الذكاء الاصطناعي. كما أنها الدولة الأكثر تضررًا من الدعاوى القضائية المرفوعة ضد شركات الذكاء الاصطناعي، والتي تتعلق غالبًا بانتهاكات الخصوصية والتمييز بين فئات العمال. ووفقًا للخبراء، بدلًا من مجموعة قوانين ثابتة، تميل الولايات المتحدة إلى إصدار العديد من المبادئ لتمكين المؤسسات والأفراد من التحلي بالمرونة في عملية تطوير وتطبيق نماذج الذكاء الاصطناعي.
الصين واليابان دولتان قطعتا شوطًا كبيرًا في تطوير الذكاء الاصطناعي المسؤول. منذ عام ٢٠١٩، أصدرت الدولة، التي يبلغ عدد سكانها مليار نسمة، أربعة مبادئ تُركز على المُصممين، والمستخدمين، وحوكمة الذكاء الاصطناعي، والتوجهات المستقبلية لتطويره. وبناءً على ذلك، اختارت الصين تطوير الذكاء الاصطناعي بشكل مستقل وتعزيز الحوكمة المحلية، بينما تسعى اليابان إلى وضع مدونة سلوك للذكاء الاصطناعي تُركز على الإنسان، مع ضمان مشاركتها في المحافل الدولية.
قال الأستاذ المشارك الدكتور نغوين ثي كيو آنه، مدير جامعة الحقوق في جامعة فيتنام الوطنية: "إن عملية إدارة الذكاء الاصطناعي في دولٍ تُضاهي الصين واليابان في المنطقة، يُمكن أن تُمثل تجربةً لتطوير الذكاء الاصطناعي المسؤول في فيتنام. فبالإضافة إلى الشرعية، فإن المسؤولية هنا هي مسؤولية تجاه المجتمع والأفراد". كما تعمل فيتنام على صياغة قانون صناعة التكنولوجيا الرقمية، الذي يتضمن محتوىً حول أخلاقيات المنتجات الرقمية، بما في ذلك الذكاء الاصطناعي.
هوانغ جيانج
[إعلان 2]
رابط المصدر






تعليق (0)