يعد تطوير المساءلة عنصرا أساسيا في جعل الذكاء الاصطناعي أكثر فائدة. صورة توضيحية: بلومبرج. |
يحدث الذكاء الاصطناعي تغييرًا في العديد من المجالات. في التعليم ، يدعم الذكاء الاصطناعي التعلم، ويكتشف الانتحال، ويساعد في التدريس. في المجال الطبي، يدعم الذكاء الاصطناعي التشخيص التصويري، وتخصيص أنظمة العلاج، وأبحاث الأدوية. تعمل هذه الأداة أيضًا على تعزيز إنشاء المحتوى التلقائي، ودعم خدمة العملاء، وإنشاء "KOLs افتراضيين" في مجال الأعمال والتسويق.
وبالإضافة إلى الفوائد، فإن انتشار الذكاء الاصطناعي التوليدي يثير أيضًا مخاوف أخلاقية، حيث يمكن للأداة أن تعمل على تضخيم التحيز ونشر المعلومات المضللة. كما أن الذكاء الاصطناعي لديه القدرة على المساس بالخصوصية، وأمن البيانات، واستقرار القوى العاملة.
على غرار العديد من البلدان حول العالم ، تتقدم فيتنام في تطبيق الذكاء الاصطناعي. ولجعل الذكاء الاصطناعي أداة مفيدة بدلاً من أداة ضارة للبشر، فإن تطوير الذكاء الاصطناعي بشكل مسؤول يعد إحدى المهام المهمة.
اتجاهات الذكاء الاصطناعي المسؤول
يؤكد الدكتور سام جوندار، المحاضر الأول في تكنولوجيا المعلومات في معهد RMIT في فيتنام، على بعض الخلافات المحيطة بأخلاقيات الذكاء الاصطناعي التوليدي. من فضيحة المواد الإباحية المزيفة لتايلور سويفت، إلى مكالمة انتحال شخصية الرئيس الأمريكي السابق جو بايدن، إلى الاحتيال الأكاديمي باستخدام الذكاء الاصطناعي.
"إن الأمر الأكثر إثارة للقلق هو حالات برامج الدردشة التي تحرض على الانتحار، أو إنشاء محتوى يسيء للأطفال، أو تشجيع الاغتيالات، أو خوارزميات التوظيف المتحيزة، أو الثغرات الأمنية التي تستغلها الذكاء الاصطناعي.
وأضاف الدكتور جوندار: "تسلط هذه القضايا الضوء على الحاجة إلى اتباع نهج يركز على الإنسان للتخفيف من إساءة استخدام الذكاء الاصطناعي وحماية المصالح الفردية والمجتمعية".
شاشة أداة Microsoft Copilot. الصورة: بلومبرج. |
وبحسب الدكتور جوندار، سيشهد عام 2025 اتجاهًا نحو الذكاء الاصطناعي المسؤول والمتمركز حول الإنسان. في ظل المخاوف المتزايدة بشأن التحيز والمعلومات المضللة والمخاطر الأخلاقية، يتم إعطاء الأولوية لتكنولوجيا الذكاء الاصطناعي الشفاف (XAI)، مما يساعد المستخدمين على فهم كيفية اتخاذ الذكاء الاصطناعي للقرارات.
بدأت العديد من البلدان مثل الولايات المتحدة وكندا وأستراليا والصين واليابان وغيرها في اعتماد لوائح الذكاء الاصطناعي لإدارة وضمان نشر الذكاء الاصطناعي الأخلاقي في جميع أنحاء الصناعة.
وهناك اتجاه آخر يتمثل في الذكاء الاصطناعي الهجين، وهو نموذج يجمع بين الذكاء الاصطناعي والبشر، والذي قد يتطور أيضًا في عام 2025.
في مجال التنمية المستدامة، يمكن للذكاء الاصطناعي أن يساعد في معالجة تغير المناخ وتعزيز التكنولوجيا الخضراء. وعلاوة على ذلك، سوف تعمل الذكاء الاصطناعي على توسيع تطبيقاتها في مجال الأمن السيبراني، مما يساعد على تعزيز القدرة على تحليل المخاطر والاستجابة للتهديدات في الفضاء الرقمي.
وأكد الدكتور جوندار أنه "مع تسارع تبني الذكاء الاصطناعي، فإن ضمان حوكمة الذكاء الاصطناعي المسؤولة أمر ضروري لتحسين فوائد التكنولوجيا وتقليل المخاطر المحتملة".
حلول تطوير الذكاء الاصطناعي المسؤولة
تعد فيتنام واحدة من الدول التي تعمل بنشاط على الابتكار في مجال الذكاء الاصطناعي. لذلك، فإن ضمان تطوير الذكاء الاصطناعي بشكل أخلاقي أمر مهم لتجنب خوارزميات الذكاء الاصطناعي المتحيزة، ومخاطر الخصوصية، وفقدان ثقة الجمهور.
ولتطوير الذكاء الاصطناعي وفقًا للمبادئ الأخلاقية، اقترح الدكتور جوندار عددًا من الحلول مثل الاستثمار في الأبحاث المتعلقة بأخلاقيات الذكاء الاصطناعي، والتعاون مع الجامعات لتوفير إطار قانوني لنشر الذكاء الاصطناعي المسؤول.
وبعد ذلك، ينبغي النظر في دمج أخلاقيات الذكاء الاصطناعي في المناهج الجامعية، وتوسيع برامج تدريب الذكاء الاصطناعي لقادة الأعمال والمعلمين وصناع السياسات.
إن تعزيز المسؤولية والأخلاق يساعد الذكاء الاصطناعي على أن يصبح أداة مفيدة للبشر. الصورة: بلومبرج. |
ومن المهم أيضًا رفع مستوى الوعي العام، لمساعدة الأفراد والشركات على فهم تأثير الذكاء الاصطناعي على الخصوصية. وبالإضافة إلى ذلك، قد يشجع ذلك على تطبيق الذكاء الاصطناعي لأغراض اجتماعية مثل الرعاية الصحية والبيئة والتعليم، بدلاً من التركيز فقط على الربح.
بالإضافة إلى التعليم والتوعية، تلعب الأطر القانونية أيضًا دورًا مهمًا في دعم تطوير الذكاء الاصطناعي المسؤول.
واقترح خبراء من معهد RMIT فيتنام عددًا من الحلول، مثل تطبيق لوائح أكثر صرامة على الذكاء الاصطناعي، والتعامل مع نماذج حوكمة الذكاء الاصطناعي الدولية، وإطلاق شهادة أخلاقية للذكاء الاصطناعي، بالإضافة إلى بناء نظام تصنيف مخاطر الذكاء الاصطناعي ونظام التدقيق لتقييم واختبار الأنظمة عالية المخاطر.
وأكد الدكتور جوندار: "بما أن فيتنام تهدف إلى أن تصبح قوة إقليمية في مجال الذكاء الاصطناعي بحلول عام 2030، فإن نجاحها لن يعتمد فقط على التقدم التكنولوجي ولكن أيضًا على اللوائح القوية والاستثمار الأخلاقي في الذكاء الاصطناعي والوعي العام لمكافحة المخاطر المحتملة".
المصدر: https://znews.vn/xu-huong-ai-moi-cua-nam-2025-post1538816.html
تعليق (0)