
تجمع حلقة النقاش "الذكاء الاصطناعي من أجل الإنسانية: أخلاقيات الذكاء الاصطناعي والسلامة في العصر الجديد"، في إطار أسبوع العلوم والتكنولوجيا VinFuture 2025، العلماء والسياسيين والمخترعين لمناقشة تطوير الذكاء الاصطناعي المسؤول، نحو القيم الإنسانية.
فكر بشكل عاجل في كيفية العيش مع الذكاء الاصطناعي - كيان أذكى منك
خلال مشاركته في الندوة، أكد البروفيسور توبي والش، من جامعة نيو ساوث ويلز بأستراليا، والعضو الأكاديمي في جمعية الحاسوب الأمريكية: "أؤمن إيمانًا راسخًا بضرورة أن يكون الاستخدام المسؤول للذكاء الاصطناعي إلزاميًا. فهناك اليوم العديد من الحوافز غير السليمة، حيث تُجنى مبالغ طائلة بفضل الذكاء الاصطناعي، والسبيل الوحيد لضمان السلوك السليم هو تطبيق لوائح صارمة، بحيث تكون المصالح العامة دائمًا متوازنة مع المصالح التجارية".
واستشهد بمثال نموذجي لقرارات مهمة، مثل إصدار الأحكام في الولايات المتحدة، حيث استُخدم نظام ذكاء اصطناعي لتقديم توصيات بشأن مدة سجن الشخص واحتمالية عودته إلى الإجرام. وللأسف، دُرّب هذا النظام على بيانات تاريخية، وعكس، دون قصد، تحيزات عنصرية سابقة، مما أدى إلى التمييز ضد السود.

البروفيسور توبي والش، جامعة نيو ساوث ويلز، أستراليا، زميل الجمعية الأمريكية للحاسب الآلي.
لذلك، يجب أن تتحمل الشركات التي تنشر وتشغل أنظمة الذكاء الاصطناعي المسؤولية عن العواقب التي تسببها هذه "الآلات".
البروفيسور جيفري هينتون، الفائز بالجائزة الرئيسية لمسابقة VF لعام ٢٠٢٤، قلق من تزايد قدرة الذكاء الاصطناعي تدريجيًا على تصميم فيروسات خطيرة، والهجمات الإلكترونية، وإنتاج فيديوهات مزيفة لتعطيل الانتخابات. خلال العشرين عامًا القادمة، سيصبح الذكاء الاصطناعي أذكى منا، ولن نعرف كيف نمنعه من السيطرة على البشر.
لذلك، أكد هذا الأستاذ: "نحن بحاجة ماسة للتفكير في كيفية التعايش مع كائنات أذكى منا. هذا وضع لم تواجهه البشرية من قبل، إنه جديد، وعلينا بذل الكثير من الجهود البحثية قبل حدوثه".
الحاجة إلى تعزيز التعاون الدولي للحد من مخاطر الذكاء الاصطناعي
أعرب البروفيسور يوشوا بينجيو، الفائز بالجائزة الرئيسية لفينفيوتشر 2024، عن هذا القلق، قائلاً إن نماذج الذكاء الاصطناعي وقدراتها ومستويات استقلاليتها لا تزال تتطور بوتيرة سريعة وثابتة. وإذا استمر هذا التوجه، فقد تتفوق أنظمة الذكاء الاصطناعي المستقلة على البشر في معظم المهام المعرفية، في غضون 5-10 سنوات فقط.
ستكون هذه نقطة تحول تاريخية قد تُحسّن جودة حياتنا بشكل كبير. ولكن إذا لم تُعالج بحذر، فقد تُشكّل أيضًا مخاطر جسيمة على الديمقراطية والاستقرار الجيوسياسي، بل وحتى مستقبل البشرية.
يجب علينا تعزيز سلامة الذكاء الاصطناعي المتقدم بدلاً من التركيز فقط على تعزيزه. فالسلامة والثقة ليسا عاملين ثانويين، بل أساسيين في عملية التطوير بما يعود بالنفع على البشرية. علينا أن نعمل معًا على المستويين السياسي والعلمي، كما قال.

البروفيسور يوشوا بنجيو - الفائز بالجائزة الرئيسية لـ VinFuture 2024.
يوصي هذا العالم، من الناحية السياسية، بضرورة التعاون الدولي. أما من الناحية العلمية، فمن الضروري فهم كيفية تصميم ذكاء اصطناعي متفوق في قدراته وغير ضار بالبشر، والحفاظ على القدرة على التحكم فيه لضمان سلوكه الآمن حتى عندما يُجبره البشر على الخطأ، وبناء حواجز تقنية واجتماعية لضمان توافق الذكاء الاصطناعي مع المعايير والنوايا والقيم والمصالح البشرية.
يتفق الدكتور فينتون جراي سيرت (نائب الرئيس ومدير التبشير عبر الإنترنت في جوجل - الفائز بالجائزة الكبرى لـ VF 2022) مع هذا الرأي قائلاً: "نحن بحاجة إلى محاسبة الذكاء الاصطناعي، وإنشاء سلسلة حراسة لمعرفة ما يفعله، ومتى، وخاصةً عند حدوث أي خطأ". فالعديد من المبادئ التي تنطبق على البشر تنطبق أيضًا على وكلاء الذكاء الاصطناعي في بيئة الإنترنت.
علينا أن نرسي معايير جديدة في آنٍ واحد، بحيث يصبح استخدام تقنيات تحديد الهوية القوية، والتشفير لتأمين المعلومات، وتطبيق آليات لضمان المساءلة، وحماية الهويات من الاختراق من قِبل الآخرين، أمرًا معتادًا. علينا استخدام التكنولوجيا للحد من المخاطر منذ البداية، والتأكيد على أن أي شخص يُثبت أنه يُلحق الضرر بالمجتمع يجب أن يواجه عواقب هذا السلوك. وهذا يتطلب تعاونًا دوليًا.
تحتاج فيتنام إلى أن يكون لها طريقها الخاص في بناء بيانات الذكاء الاصطناعي.
قال الأستاذ المشارك لو آنه توان، من جامعة نانيانغ التكنولوجية (سنغافورة) وجامعة فين يوني (فيتنام)، إن الدول الأخرى تمتلك مجموعات بيانات تمتد لعشر سنوات تقريبًا، لكن فيتنام تبدأ من الصفر. لذلك، يمكننا بناء بيانات مستدامة منذ البداية، وتوفير بيانات نظيفة وأخلاقية ومناسبة ثقافيًا منذ البداية.
ومع ذلك، فإن التحدي الأكبر الذي يواجه فيتنام هو خصوصية اللغة الفيتنامية. لدينا نظام لهجات متنوع، وثقافة إقليمية غنية، وأساليب مخاطبة بالغة التعقيد. تدعم منصات كبيرة مثل ChatGPT وGemini اللغة الفيتنامية، لكن جودتها ليست عالية نظرًا لعدم فهمها اللهجة الفيتنامية أو العادات أو التاريخ.
تحتاج فيتنام إلى بناء نموذجها الفيتنامي الخاص. بالإضافة إلى ذلك، يجب علينا تطوير نموذج مفتوح المصدر لتتمكن الشركات الصغيرة من استخدامه والمساهمة فيه. وقال: "إذا اعتمدنا فقط على النماذج الأجنبية في شكل "صناديق سوداء"، فسنكون مجرد مستخدمين للذكاء الاصطناعي ، وليس مطورين له" .
يعمل الأستاذ المشارك لو آنه توان وزملاؤه حاليًا على بناء بيانات الذكاء الاصطناعي الفيتنامية. ويجب التركيز على عوامل مثل اللهجة والتاريخ والثقافة.
وقال أيضًا إن الطلاب في الدول الأجنبية يتلقون تعليمًا مبكرًا جدًا حول الذكاء الاصطناعي. فيتنام بدأت هذا الأمر للتو، ولكن يمكننا تسريعه بالتعلم والتكيف وفقًا لذلك.
الشباب الفيتناميون يتمتعون بروح ديناميكية عالية؛ كل ما يحتاجونه هو تثقيفهم الكامل حول المسؤولية الرقمية. يجب أن تكون لدينا هيئة موحدة لتأكيد وتوحيد جودة البيانات والمعايير الأخلاقية. كما تشارك جامعة فين يوني في المجلس الهادف إلى بناء نظام للمعايير الأخلاقية، وستواصل المساهمة في هذه العملية.

الأستاذ المشارك لو آنه توان، جامعة نانيانغ التكنولوجية (سنغافورة)، جامعة فين يوني (فيتنام).
استجابةً لاستراتيجية الاستثمار الأجنبي المباشر التي تهدف إلى أن تصبح فيتنام رائدةً في المنطقة في مجال الذكاء الاصطناعي بحلول عام ٢٠٣٠، يعتقد الأستاذ المشارك توان أن فيتنام تتمتع بموارد بشرية عالية الجودة، وهو ما تتجلى في إنجازاتها الدولية في الرياضيات والفيزياء والكيمياء. إذا عرفنا كيف نحشد القوى ونعتمد سياساتٍ فعّالة، يُمكن تحقيق هدف ٢٠٣٠ بالكامل.
يوصي البروفيسور توبي والش فيتنام بالاستثمار في الموارد البشرية، والسعي الحثيث لتحسين مهارات الأفراد، والتأكد من فهمهم للذكاء الاصطناعي، ودعم رواد الأعمال، وشركات الذكاء الاصطناعي، والجامعات. بدلًا من انتظار الدول الأخرى لنقل التكنولوجيا أو توجيهنا، يجب أن نكون استباقيين ونتقن التكنولوجيا.
وبالإضافة إلى ذلك، تحتاج فيتنام إلى تعبئة منصات التواصل الاجتماعي بقوة لخلق بيئة آمنة للمستخدمين المحليين، دون التأثير على الديمقراطية في البلاد.
ثاو لي ثين لام
المصدر: https://nhandan.vn/الذكاء الاصطناعي يجب أن يعزز السلامة بشكل أكبر من التركيز على تطوير الرجل






تعليق (0)