Vietnam.vn - Nền tảng quảng bá Việt Nam

أخلاقيات العاملين في وسائل الإعلام عند استخدام تقنية الذكاء الاصطناعي

Báo Quốc TếBáo Quốc Tế27/10/2024

نعيش في عصر الثورة الصناعية الرابعة، حيث أصبح الذكاء الاصطناعي تدريجيًا جزءًا لا غنى عنه في العديد من مجالات الحياة الاجتماعية. ولا يمكن لوسائل الإعلام، باعتبارها جسرًا للمعلومات بين الجمهور والأحداث، أن تكون بمنأى عن هذا التوجه.


Đạo đức của người làm truyền thông khi sử dụng công nghệ AI
السيدة نجوين ثي هاي فان - مديرة مركز تدريب الصحافة، جمعية الصحفيين الفيتناميين ، خلال ورشة عمل حول تكنولوجيا الذكاء الاصطناعي. (المصدر: جمعية الصحفيين الفيتناميين)

وللاستفادة القصوى من المزايا التي توفرها الذكاء الاصطناعي، يتعين على العاملين في مجال الاتصالات أن يزودوا أنفسهم بالمعرفة اللازمة لاستخدام الذكاء الاصطناعي بشكل فعال، مع ضمان الموثوقية والأخلاقيات في نقل المعلومات.

من "سخونة" الذكاء الاصطناعي

من الواضح تمامًا أن الذكاء الاصطناعي (AI) من أكثر الكلمات المفتاحية رواجًا اليوم. في سبتمبر 2024، سجّل البحث عن كلمة "AI" في محرك بحث جوجل خلال 0.3 ثانية 15 مليارًا و900 مليون نتيجة؛ بينما سجّل البحث عن كلمة "أدوات الذكاء الاصطناعي" خلال 0.4 ثانية أكثر من 3 مليارات و400 مليون نتيجة. تُظهر هذه الأرقام الضخمة مدى انتشار الذكاء الاصطناعي والأدوات القائمة عليه عالميًا والاهتمام به.

في الوقت الحاضر، تتزايد أدوات الذكاء الاصطناعي التي تُستخدم في مختلف المجالات، بما في ذلك صناعة الإعلام. فإلى جانب برنامج ChatGPT المعروف على نطاق واسع، هناك العديد من تطبيقات الذكاء الاصطناعي المُطوّرة في مجالات متخصصة، والتي تُلبّي مهامًا مُحدّدة. ومن السهل ذكر العديد من الأدوات هنا، على سبيل المثال: Bing AI وClause وZapier Central لمجموعات مهام Chatbot؛ وJasper وCopy.ai وAnyword لمهام إنشاء المحتوى؛ وDescript وWondershare وRunway لمهام إنتاج وتحرير الفيديو ؛ وDALL-E3 وMidjourney وStable Diffusion لمهام إنشاء الصور؛ وMurf وAIVA لمهام المحتوى الصوتي، وغيرها. ومؤخرًا، أطلقت شركة أمازون العملاقة أدوات الذكاء الاصطناعي التي طورتها، Video Generator وImage Generator، بهدف "إلهام الإبداع وتحقيق قيمة أكبر".

على الرغم من أن أدوات الذكاء الاصطناعي متنوعة للغاية من حيث الحجم أو مستوى التخصص، إلا أن التكنولوجيا في جوهرها تشترك في أمرين: يتم تطوير أدوات الذكاء الاصطناعي بناءً على خوارزميات وبيانات "لتدريب" أدوات الذكاء الاصطناعي.

الرقابة الأخلاقية على استخدام الذكاء الاصطناعي في وسائل الإعلام

لا شك أن أدوات الذكاء الاصطناعي تُقدم مزايا لا تُضاهى، ومع تسارع وتيرة تحديث التكنولوجيا، سيزداد عدد أدوات الذكاء الاصطناعي المتخصصة في كل مجال، مُستجيبةً لمهام متنوعة، من البسيطة إلى المعقدة، في قطاع الإعلام. ومع هذا التطور الهائل، تُطرح تساؤلات عديدة حول الرقابة الأخلاقية على تطوير واستخدام أدوات الذكاء الاصطناعي في قطاع الإعلام؟ ماذا سيحدث إذا تم التلاعب بخوارزميات وبيانات هذه الأدوات بطريقة تُلحق الضرر بالمجتمع؟ من يضمن حقوق الملكية الفكرية لبيانات الإدخال التي تستخدمها هذه الأدوات للتدريب؟ من يُقيّم مستوى الضرر الذي تُسببه؟

هل هناك تفاوت بين فئة الأشخاص الذين يمكنهم الوصول إلى أدوات الذكاء الاصطناعي وفئة الأشخاص الذين لا يمكنهم الوصول إليها في المهمة نفسها؟ حتى أن هناك تساؤلات حول مستوى الضرر المحتمل غير المنضبط الناتج عن أدوات الذكاء الاصطناعي، لا سيما في المجالات الحساسة التي قد تؤثر على العديد من الأشخاص على نطاق واسع، مثل وسائل الإعلام وشبكات التواصل الاجتماعي.

إدراكًا للمخاوف المذكورة أعلاه، أصدرت العديد من المنظمات والجمعيات والحكومات، وحتى الشركات والمؤسسات التي تُطوّر أدوات الذكاء الاصطناعي، توصياتٍ وتوضيحاتٍ، بل وحتى مدونات سلوكٍ تتعلق بمسألة الرقابة الأخلاقية في تكنولوجيا الذكاء الاصطناعي. وينص إعلان أخلاقيات الذكاء الاصطناعي - توصية اليونسكو - الذي اعتمدته 193 دولة عام 2021، بوضوح على أن "النمو السريع للذكاء الاصطناعي قد أتاح فرصًا عديدة عالميًا، بدءًا من المساعدة في تشخيصات الرعاية الصحية ، ووصولًا إلى تمكين التواصل البشري عبر وسائل التواصل الاجتماعي، وتعزيز كفاءة العمل من خلال المهام الآلية".

ومع ذلك، تُثير هذه التغيرات السريعة أيضًا مخاوف أخلاقية عميقة. فقد بدأت هذه المخاطر المرتبطة بالذكاء الاصطناعي تُفاقم أوجه عدم المساواة القائمة، مما يُلحق المزيد من الضرر بالفئات المحرومة أصلًا...". ومن هنا، "نطلب من اليونسكو تطوير أدوات لدعم الدول الأعضاء، بما في ذلك منهجية تقييم الجاهزية، وهي أداة تُمكّن الحكومات من رسم صورة شاملة عن استعدادها لنشر الذكاء الاصطناعي بشكل أخلاقي ومسؤول لجميع مواطنيها".

في إطار نهجها العالمي، أطلقت اليونسكو المرصد العالمي لأخلاقيات وحوكمة الذكاء الاصطناعي، والذي تقول إنه "يوفر معلومات حول مدى استعداد الدول لتبني الذكاء الاصطناعي أخلاقيًا ومسؤولًا. كما يستضيف مختبر أخلاقيات وحوكمة الذكاء الاصطناعي، الذي يجمع المساهمات والبحوث المؤثرة ومجموعات الأدوات والممارسات الإيجابية في مجموعة واسعة من قضايا أخلاقيات الذكاء الاصطناعي..."

بالإضافة إلى المنظمات العالمية مثل اليونسكو، تعمل العديد من الجمعيات المهنية على تطوير معاييرها الخاصة. على سبيل المثال، وضعت الجمعية الدولية لاتصالات الأعمال (IABC)، وهي جمعية تضم آلاف الأعضاء من جميع أنحاء العالم، مجموعة من المبادئ التوجيهية للاستخدام الأخلاقي للذكاء الاصطناعي من قبل متخصصي الاتصالات، والتي تهدف إلى إرشاد أعضاء IABC حول أهمية مدونة أخلاقيات IABC للذكاء الاصطناعي. يمكن تحديث هذه المبادئ واستكمالها بمرور الوقت بالتوازي مع تطور تكنولوجيا الذكاء الاصطناعي. تتضمن هذه المبادئ العديد من النقاط المحددة التي يجب على متخصصي الاتصالات الالتزام بها، مثل:

يجب أن تكون موارد الذكاء الاصطناعي المستخدمة مُدارةً بشريًا لخلق تجارب إيجابية وشفافة تُعزز الاحترام وتبني الثقة في مهنة الإعلام. من المهم البقاء على اطلاع دائم بالفرص والمخاطر المهنية التي تُمثلها أدوات الذكاء الاصطناعي. يجب إيصال المعلومات بدقة وموضوعية وإنصاف. قد تكون أدوات الذكاء الاصطناعي عرضة للعديد من الأخطاء والتناقضات وغيرها من المشكلات التقنية. يتطلب هذا حكمًا بشريًا للتحقق بشكل مستقل من دقة المحتوى المُنشأ بواسطة الذكاء الاصطناعي وشفافيته وخلوه من الانتحال.

حماية المعلومات الشخصية و/أو السرية للآخرين، وعدم استخدامها دون إذنهم. تقييم مخرجات الذكاء الاصطناعي بناءً على التفاعل البشري وفهم المجتمع الذي يهدف إلى خدمته. إزالة التحيز قدر الإمكان، ومراعاة القيم الثقافية ومعتقدات الآخرين.

يجب عليهم التحقق من صحة مخرجاتهم بشكل مستقل، مع الالتزام بالدقة المهنية اللازمة، لضمان دقة وثائق أو معلومات أو مراجع الجهات الخارجية، ونسبها إليها والتحقق منها، وحصولها على التراخيص اللازمة أو الإذن اللازم للاستخدام. لا يُحاولون إخفاء أو تمويه استخدام الذكاء الاصطناعي في مخرجاتهم المهنية. يجب عليهم إدراك طبيعة الذكاء الاصطناعي مفتوحة المصدر، والمشاكل المتعلقة بالسرية، بما في ذلك إدخال معلومات كاذبة أو مضللة أو خادعة.

بالنسبة للشركات والمؤسسات التي تمتلك وتُطوّر وتُتاجر بأدوات الذكاء الاصطناعي، فهي من يفهم تفاصيلها أكثر من أي شخص آخر، ويعرف الخوارزميات الأساسية التي تعمل بها، والبيانات التي تُدرّب عليها. لذلك، تحتاج هذه الشركات أيضًا إلى توفير معلومات تتعلق بمبادئ أخلاقيات تطوير الذكاء الاصطناعي. في الواقع، هناك شركات مهتمة بهذه المسألة.

تلتزم جوجل بعدم تطوير أدوات الذكاء الاصطناعي في المجالات التي تنطوي على خطر كبير للضرر، ولن نباشر العمل إلا عندما نعتقد أن الفوائد تفوق المخاطر بشكل كبير، مع مراعاة الضمانات المناسبة. الأسلحة أو التقنيات الأخرى التي يكون الغرض الرئيسي منها أو استخدامها هو التسبب في إصابة بشرية أو تسهيلها بشكل مباشر. التقنيات التي تجمع أو تستخدم المعلومات لأغراض المراقبة والتي تنتهك المعايير الدولية. التقنيات التي ينتهك غرضها المبادئ المقبولة عمومًا للقانون الدولي وحقوق الإنسان.

فيما يتعلق بالأمن والسلامة، تتعهد جوجل بما يلي: "سنواصل تطوير وتطبيق إجراءات أمنية وسلامة فعّالة لتجنب النتائج غير المقصودة التي قد تُسبب أضرارًا. سنصمم أنظمة الذكاء الاصطناعي لدينا لتكون حذرة على النحو المناسب، وسنسعى إلى تطويرها وفقًا لأفضل الممارسات في أبحاث سلامة الذكاء الاصطناعي. سندمج مبادئ الخصوصية لدينا في تطوير تقنيات الذكاء الاصطناعي واستخدامها. سنوفر فرصًا للإشعار والموافقة، ونشجع على تبني هياكل حماية الخصوصية، ونوفر شفافية وضوابط مناسبة لاستخدام البيانات".

على غرار جوجل، أصدرت مايكروسوفت أيضًا بيانًا حول مبادئ الذكاء الاصطناعي ومنهجه، مؤكدةً: "نحن ملتزمون بضمان تطوير أنظمة الذكاء الاصطناعي بمسؤولية وبطريقة تضمن ثقة الناس...". علاوة على ذلك، وبشكل أو بآخر، تعهدت شركات التكنولوجيا الكبرى، التي تستثمر بكثافة في تطوير أدوات الذكاء الاصطناعي، مثل أمازون وOpenAI، بالتزاماتها الخاصة.

أثبتت العديد من الأمثلة التاريخية ازدواجية التكنولوجيا، بجوانبها الإيجابية والسلبية. فرغم كونها منصة تكنولوجية عالية التقنية، لا يزال الذكاء الاصطناعي قائمًا على خوارزميات وبيانات يُطورها ويجمعها البشر؛ وفي الوقت نفسه، تُعدّ معظم منتجات الذكاء الاصطناعي جزءًا من خطط أعمال الشركات المالكة لها.

لذلك، هناك دائمًا مخاطر محتملة من الجانب التقني، وكذلك من فريق تطوير وإدارة المنتج نفسه. تكمن المشكلة هنا في مدى تأثير أدوات الذكاء الاصطناعي على الأغلبية، حتى على المستوى الاجتماعي والاقتصادي للمجتمع. يُعدّ الاهتمام المُلِحّ بالرقابة الأخلاقية عند استخدام تقنية الذكاء الاصطناعي علامةً مُرحّبًا بها، بمشاركة منظمات دولية واسعة النطاق، مثل الأمم المتحدة، والحكومات، والجمعيات الصناعية، والأهم من ذلك، وحدات تطوير التكنولوجيا نفسها.

ومع ذلك، نظرًا لأن قائمة أدوات الذكاء الاصطناعي تطلق إصدارات جديدة باستمرار، كل منها أكثر تطورًا وتعقيدًا من سابقتها، فإن القواعد والمبادئ أو الإرشادات تحتاج أيضًا إلى التحديث والاستكمال في الوقت المناسب، وعلاوة على ذلك، تحتاج إلى أن تكون استباقية في منع وتقييد ومراقبة مطوري المنتجات والمستخدمين ضمن إطار حيث القدرة على الامتثال للرقابة الأخلاقية في تكنولوجيا الذكاء الاصطناعي بشكل عام والعاملين في وسائل الإعلام بشكل خاص يمكن أن تحقق أعلى مستوى من الكفاءة.


[إعلان 2]
مصدر

تعليق (0)

No data
No data

نفس الموضوع

نفس الفئة

لا تزال الزهور "الغنية" التي تكلف مليون دونج لكل منها تحظى بشعبية كبيرة في 20 أكتوبر
الأفلام الفيتنامية والرحلة إلى جوائز الأوسكار
يذهب الشباب إلى الشمال الغربي للتحقق خلال موسم الأرز الأكثر جمالًا في العام
في موسم صيد عشبة القصب في بينه ليو

نفس المؤلف

إرث

شكل

عمل

يجني صيادو كوانج نجاي ملايين الدونغ يوميًا بعد الفوز بالجائزة الكبرى في صيد الروبيان

الأحداث الجارية

النظام السياسي

محلي

منتج