استناداً إلى الخبرة المكتسبة في العديد من البلدان ومبادئ اليونسكو، تعمل فيتنام على بناء اللوائح اللازمة لتطوير الذكاء الاصطناعي بطريقة أخلاقية ومسؤولة.
وفي ورشة عمل "تطوير وتطبيق الذكاء الاصطناعي المسؤول: النظرية والتطبيق"، التي عقدت صباح يوم 28 فبراير في جامعة الحقوق، قال نائب وزير العلوم والتكنولوجيا بوي ذي دوي، إن أخلاقيات الذكاء الاصطناعي هي قضية عالمية معقدة تجذب العديد من البلدان والمنظمات في جميع أنحاء العالم للمشاركة في إيجاد حلول، بما في ذلك اليونسكو.
اليونسكو منظمة تُركز على الثقافة والتعليم . ومع ذلك، ولأول مرة، طرحت هذه المنظمة الذكاء الاصطناعي - وهو موضوع مرتبط بالتكنولوجيا - في نقاشاتها. وقد دفعت هذه الخطوة بعض الدول التي انسحبت من المنظمة إلى اتخاذ قرار بالعودة إليها، على حد قوله.
وفقًا لنائب الوزير، تؤثر أخلاقيات الذكاء الاصطناعي على جوانب عديدة من الحياة، كالمجتمع والقانون والمنافسة السياسية والتجارية. ولكي يتطور الذكاء الاصطناعي بمسؤولية، يجب أن تُؤخذ الإدارة على محمل الجد، بدءًا من مرحلة تحديد نماذج الذكاء الاصطناعي، وجمع البيانات، ووصولًا إلى استكمال النظام وتطبيقه. في الواقع الفيتنامي، تتطلب هذه العملية تنسيقًا بين المهندسين والعلماء والهيئات الإدارية، مثل وزارة العلوم والتكنولوجيا، ووزارة المعلومات والاتصالات، ووزارة الأمن العام .
خلال الورشة، قال السيد دوي إن مبادئ اليونسكو تُشكل الأساس الذي تستند إليه الدول في وضع لوائح أخلاقيات الذكاء الاصطناعي. أولًا، يجب أن تتوافق نماذج الذكاء الاصطناعي مع التصميم والمهام المحددة منذ البداية، لضمان عدم وجود أي أعمال مدمرة تُلحق الضرر بالبشر.
قال: "الذكاء الاصطناعي مختلف تمامًا عن التقنيات التي بحثها البشر. فبينما تتبع المنتجات التقنية القديمة أهدافًا قائمةً فقط، يستطيع الذكاء الاصطناعي أن يُنشئ اتجاهات جديدة من تلقاء نفسه، بعيدًا عن سيطرة المطور". وضرب نائب الوزير مثالًا على حالةٍ سمح فيها العلماء لنظامي حاسوب بالتحدث باللغة الإنجليزية. ولكن بعد فترة، تحولا فجأةً إلى التواصل بلغة غريبة، مما جعل من المستحيل على فريق البحث استيعاب محتوى المحادثة.
تُعدّ مسألة المساواة والإنصاف أيضًا موضع قلق عند بناء نموذج الذكاء الاصطناعي. ووفقًا للسيد دوي، فمنذ مرحلة جمع المعلومات لتدريب الذكاء الاصطناعي، قد يحدث عدم مساواة، مما يؤثر سلبًا على النظام بأكمله.
فيما يتعلق بنموذج التعرف على الصوت بالذكاء الاصطناعي، أشار إلى أنه إذا جُمعت البيانات من سكان هانوي فقط، فسيكون النظام متحيزًا عند التفاعل مع أشخاص من مناطق أخرى. وأضاف: "على نطاق أوسع، قد تُسبب مصادر بيانات الذكاء الاصطناعي ظلمًا بين الجنسين وفئات المجتمع، مثل الأشخاص ذوي الإعاقة". لذلك، لتحقيق تطوير عادل للذكاء الاصطناعي، بالإضافة إلى مشاركة الخبراء القانونيين، لا بد من مساهمة علماء النفس وعلماء الاجتماع.
بالإضافة إلى ذلك، أكد ممثل الوزارة أيضًا على بعض المبادئ المهمة لأخلاقيات الذكاء الاصطناعي مثل ضمان أمن البيانات الشخصية واحترام حقوق النشر وحقوق الملكية الفكرية وتحسين إنتاجية العمل ولكن مع ضرورة حماية البيئة والضمان الاجتماعي.
نائب الوزير بوي ذي دوي يتحدث في ورشة العمل. تصوير: هوانغ جيانغ
وفي الورشة، قال الخبراء إن فيتنام تراقب تنفيذ اللوائح المتعلقة بتطوير الذكاء الاصطناعي المسؤول في العديد من البلدان والمناطق حول العالم، من أجل البحث وبناء إطار قانوني مناسب للممارسة المحلية.
على وجه التحديد، في نهاية عام 2023، اعتمد الاتحاد الأوروبي المبادئ الواردة في قانون الذكاء الاصطناعي، ومن المتوقع نشره في موعد لا يتجاوز الربع الثاني من عام 2024. وهذا هو القانون الأول والأكثر شمولاً حالياً، مع العديد من المبادرات للتعامل مع مخاطر الذكاء الاصطناعي.
قال الدكتور دو جيانج نام، من جامعة الحقوق في جامعة فيتنام الوطنية، خلال ورشة العمل: "سيستند قانون الذكاء الاصطناعي لعام ٢٠٢٤ إلى مخاطر نماذج الذكاء الاصطناعي لتعديل القانون وفقًا لذلك، إلى جانب بيئة اختبارية ونهج "مرن" للأخلاقيات والموثوقية والمسؤولية". وأضاف أن التجربة التي يمكن لفيتنام تطبيقها من قانون الذكاء الاصطناعي "لا تتمثل في وضع قانون نهائي، بل في التحديث المستمر والتكيف مع تطور تكنولوجيا الذكاء الاصطناعي".
على عكس أوروبا، تعتمد الولايات المتحدة على استجابات القطاع الخاص لتطوير حوكمة الذكاء الاصطناعي. كما أنها الدولة الأكثر تضررًا من الدعاوى القضائية المرفوعة ضد شركات الذكاء الاصطناعي، والتي تتعلق غالبًا بانتهاكات الخصوصية والتمييز بين فئات العمال. ووفقًا للخبراء، بدلًا من مجموعة قوانين ثابتة، تميل الولايات المتحدة إلى إصدار العديد من المبادئ لضمان مرونة المؤسسات والأفراد في عملية تطوير وتطبيق نماذج الذكاء الاصطناعي.
الصين واليابان دولتان قطعتا شوطًا كبيرًا في تطوير الذكاء الاصطناعي المسؤول. منذ عام ٢٠١٩، أصدرت الدولة، التي يبلغ عدد سكانها مليار نسمة، أربعة مبادئ تُركز على المُنمذجين، والمستخدمين، وحوكمة الذكاء الاصطناعي، والتوجهات المستقبلية لتطويره. وبناءً على ذلك، اختارت الصين تطوير الذكاء الاصطناعي بشكل مستقل وتعزيز الحوكمة المحلية، بينما تسعى اليابان إلى وضع مدونة سلوك للذكاء الاصطناعي تُركز على الإنسان، مع ضمان مشاركتها في المحافل الدولية.
قالت الأستاذة المشاركة الدكتورة نغوين ثي كيو آنه، مديرة جامعة الحقوق في جامعة فيتنام الوطنية: "إن عملية إدارة الذكاء الاصطناعي في دول المنطقة، مثل الصين واليابان، يمكن أن تُمثل تجربةً لتطوير ذكاء اصطناعي مسؤول في فيتنام. فبالإضافة إلى الشرعية، فإن المسؤولية هنا هي مسؤولية تجاه المجتمع والأفراد". كما تعمل فيتنام على صياغة قانون صناعة التكنولوجيا الرقمية، الذي يتضمن محتوىً حول أخلاقيات المنتجات الرقمية، بما في ذلك الذكاء الاصطناعي.
هوانغ جيانج
[إعلان 2]
رابط المصدر
تعليق (0)