مع التطور الهائل للذكاء الاصطناعي، أصبحت قضية الأخلاق والاستخدام المسؤول للذكاء الاصطناعي موضوعًا يثير قلقًا خاصًا لدى العديد من البلدان، من أجل الحد من الجوانب السلبية للذكاء الاصطناعي.
في سياق تعزيز فيتنام للتحول الرقمي وتنمية القطاع الخاص، يجب تصميم أخلاقيات الذكاء الاصطناعي بطريقة عملية، تدعم عملية التطوير التكنولوجي بدلاً من إعاقتها.
هذا هو المحتوى الذي شاركه السيد فان دوك ترونج، رئيس جمعية فيتنام بلوكتشين (VBA) في الدورة التدريبية حول "أخلاقيات الذكاء الاصطناعي"، التي نظمها معهد تكنولوجيا بلوكتشين والذكاء الاصطناعي (ABAII) بالتعاون مع السفارة الأمريكية في مدينة هوشي منه في الفترة من 15 إلى 16 مايو.
أخلاقيات الذكاء الاصطناعي أو الاستخدام المسؤول للذكاء الاصطناعي هو موضوع ذو أهمية كبيرة، وخاصة في البلدان المتقدمة مثل الولايات المتحدة واليابان وكوريا الجنوبية والاتحاد الأوروبي...
وفي الولايات المتحدة، اتخذت العديد من شركات التكنولوجيا الكبرى نهجاً وطورت لوائح وأطر تقييم للاستخدام المسؤول للذكاء الاصطناعي.
مايكروسوفت - أطلقت الشركة المتعددة الجنسيات الرائدة في الولايات المتحدة أكثر من 30 أداة ذكاء اصطناعي مسؤولة، بما في ذلك تقييم السلامة وتصفية المحتوى ودرع التذكير للكشف عن مخاطر هجوم المحتوى وإدارتها.
أما بالنسبة لشركة IBM - وهي شركة متعددة الجنسيات لتكنولوجيا الكمبيوتر، فإن 100% من الموظفين يشاركون في برنامج سنوي للتوجيه السلوكي للأعمال، ويتم تدريب أكثر من 600 مورد في أخلاقيات التكنولوجيا، ويتم جذب 100% من موردي IBM للقيام بأنشطة تتعلق بالمسؤولية الاجتماعية والبيئية والأخلاق والتخطيط للمخاطر بحلول عام 2023.
وفي فيتنام، أكدت الاستراتيجية الوطنية للبحث والتطوير وتطبيق الذكاء الاصطناعي حتى عام 2030 في القرار رقم 127/QD-TTg الصادر عن رئيس الوزراء بتاريخ 26 يناير 2021، أن التدريب على أخلاقيات وسياسات الذكاء الاصطناعي يشكل ركيزة أساسية.
وبحسب السيد فان دوك ترونج، رئيس جمعية فيتنام للبلوكتشين (VBA)، فإن بناء المبادئ الأخلاقية للذكاء الاصطناعي يجب أن يكون مناسبًا للسياق العملي وحجم كل منظمة.
ينبغي تنفيذ المبادئ التوجيهية الأخلاقية على مراحل، بدءًا من الأساسيات والتعديل مع نمو المنظمة.
وأشار قادة VBA أيضًا إلى الاختلاف في النهج بين الولايات المتحدة وأوروبا، حيث يعتبر النموذج الأمريكي أكثر مرونة، مما يسمح بالابتكار قبل فرض اللوائح الصارمة.
وأكد السيد ترونج أنه "في سياق تعزيز فيتنام للتحول الرقمي وتنمية القطاع الخاص، يجب تصميم أخلاقيات الذكاء الاصطناعي بطريقة عملية، تدعم عملية تطوير التكنولوجيا بدلاً من إعاقتها".
وقال السيد داو ترونغ ثانه، نائب مدير ABAII، إن شركات التكنولوجيا الكبرى في العالم تقدم حاليًا تعريفات مختلفة للاستخدام المسؤول للذكاء الاصطناعي.
على سبيل المثال، تُعرّف مايكروسوفت الذكاء الاصطناعي المسؤول بأنه نهج لتطوير وتقييم ونشر أنظمة الذكاء الاصطناعي بطريقة آمنة وجديرة بالثقة ومسؤولة.
تدرس جوجل مرة أخرى التأثير المجتمعي لنمو ونطاق التقنيات مثل الذكاء الاصطناعي، بما في ذلك الأضرار والفوائد المحتملة.
لقد طورت شركة IBM مجموعة من المبادئ لتوجيه تصميم وتطوير ونشر واستخدام الذكاء الاصطناعي. إنهم يبنون الثقة في حلول الذكاء الاصطناعي التي لديها القدرة على تمكين المنظمات وأصحاب المصلحة.
ومع ذلك، فإن النقطة المشتركة التي تسعى الشركات لتحقيقها اليوم هي التركيز على بناء أدوات لضمان عمل الذكاء الاصطناعي بشكل أخلاقي، وعدم التسبب في الضرر، وإفادة المجتمع.
وفي اتصال مع فيتنام، أشارت السيدة تران فو ها مينه، المستشارة في مجال الذكاء الاصطناعي المسؤول في FPT، ومؤسسة Humane-AI Asia، إلى أن الاهتمام بالذكاء الاصطناعي المسؤول وبناءه وتطبيقه من قبل الشركات الفيتنامية لا يزال محدودًا. ومن ثم، فإن دورات أخلاقيات الذكاء الاصطناعي ضرورية، بهدف بناء الموارد البشرية اللازمة لتطوير الذكاء الاصطناعي المسؤول في فيتنام.
خلال الدورة، ذكر السيد نجوين تران مينه كوان، المدير القانوني لجمعية فيتنام بلوكتشين والسيد جيفري ريكر، الرئيس التنفيذي لشركة Babl AI - إحدى المنظمات الرائدة في الولايات المتحدة في ضمان امتثال أنظمة الذكاء الاصطناعي للوائح الدولية والمعايير الأخلاقية، معايير أخلاقيات الذكاء الاصطناعي لليونسكو، ومبادئ الذكاء الاصطناعي لمنظمة التعاون الاقتصادي والتنمية، والمعايير والتكنولوجيا الوطنية الأمريكية (NIST)، إلى أحدث الأوامر التنفيذية التي أصدرها رئيس الولايات المتحدة.
في الوقت الذي يُنشر فيه الذكاء الاصطناعي عالميًا، تُعاني العديد من المؤسسات والشركات من نقص في الاستعداد الأخلاقي وإدارة المخاطر. هذا أشبه بمحاولة إخماد حريق بعد اندلاعه، بدلًا من وضع نظام وقائي استباقي منذ البداية، كما قال جيفري ريكر.
وعلى هذا الأساس، يوصي السيد جيفري ريكر المنظمات بتنفيذ خارطة طريق الامتثال بشكل استباقي الآن، بما في ذلك خطوات مثل: إنشاء كتالوج الذكاء الاصطناعي؛ تقييم مخاطر أدوات الذكاء الاصطناعي؛ ضمان الحصول على موافقة من أعلى مستوى؛ إجراء تحليل للوضع الحالي والمتطلبات القانونية، وبالتالي تحديد خارطة طريق التحسين المناسبة…
في الدورة، لا يتم تزويد الطلاب بالمعرفة الأساسية فحسب، بل تتاح لهم أيضًا الفرصة للتواصل بين التخصصات المختلفة، مما يساعد الطلاب من وكالات إدارة الدولة ومؤسسات التكنولوجيا والمنظمات التعليمية ومعاهد البحوث وما إلى ذلك على تبادل الخبرات ومشاركتها، وبناء مجتمع من مستخدمي الذكاء الاصطناعي المسؤولين في فيتنام.
وهذه مقدمة مهمة لتشكيل شبكة من الخبراء، تساهم في دعم السياسات وتحسين القدرة على الاستجابة للتحديات التكنولوجية في المستقبل.
وفي وقت سابق، أقيمت بنجاح دورة "أخلاقيات الذكاء الاصطناعي" في هانوي يومي 12 و13 مايو، بمشاركة 500 طالب./.
المصدر: https://www.vietnamplus.vn/dao-tao-ve-dao-duc-va-chinh-sach-giup-thuc-day-su-dung-ai-co-trach-nhiem-post1038995.vnp
تعليق (0)