Vietnam.vn - Nền tảng quảng bá Việt Nam

"لماذا الذكاء الاصطناعي خطير؟"

Báo Quân đội Nhân dânBáo Quân đội Nhân dân04/04/2023

[إعلان 1]

في الواقع، ليست هذه هي المرة الأولى التي يُحذّر فيها العلماء من احتمال أن يُصبح الذكاء الاصطناعي خطرًا على البشر. ففي عام ٢٠١٤، قال الفيزيائي النظري البريطاني الشهير ستيفن هوكينج: "إن التطوير الشامل للذكاء الاصطناعي قد يُدمّر البشرية". كما قال إن الذكاء الاصطناعي سيُستبدل بالبشر تمامًا خلال الخمسمائة عام القادمة إذا لم يكونوا حذرين في عملية البحث والتطوير لهذه التقنية الخطيرة. قبل ثماني سنوات، في يوليو ٢٠١٥، وقّع أكثر من ألف خبير في تكنولوجيا الذكاء الاصطناعي، بمن فيهم ستيفن هوكينج وإيلون ماسك ونعوم تشومسكي... عريضةً تُحذّر من خطر سباق التسلح في مجال الذكاء الاصطناعي العسكري ، وتدعو إلى حظر شامل للأسلحة ذاتية التشغيل. وقد أضاف إطلاق OpenAI لبرنامج Chat GPT في نوفمبر ٢٠٢٢ جرس إنذار آخر إلى المخاطر الوجودية للذكاء الاصطناعي. في الواقع، يُظهر ما يقوم به Chat GPT أن الذكاء الاصطناعي، إلى حد ما، أخطر بكثير مما كان يُعتقد سابقًا.

تعتمد المخاطر المحتملة للذكاء الاصطناعي على كيفية استخدامه. طُوّر الذكاء الاصطناعي في البداية لمساعدة البشر في عملهم، وخاصةً في المهام المملة والمتكررة مثل تصنيف الصور ومراجعة المعلومات، وغيرها. ومع ذلك، مع التطور السريع للذكاء الاصطناعي في الآونة الأخيرة، يخشى العلماء وخبراء التكنولوجيا من أن يُسبب الذكاء الاصطناعي، إذا طُوّر دون رقابة أو بُرمج لأغراض خاطئة، عواقب وخيمة على البشر والمجتمع.

خطر انعدام الأمن

قد يُشكل الذكاء الاصطناعي تهديدًا للأمن القومي والسلامة الشخصية. وقد حذّر إيلون ماسك من أن الذكاء الاصطناعي قد يُصبح أداةً مُرعبةً في الحروب. فإذا استطاعت دولةٌ تطوير نظام ذكاء اصطناعي مُتطوّر، يُمكنها استخدامه لمهاجمة دولٍ أخرى. وقد أمضى ستيوارت راسل، أستاذ علوم الحاسوب في جامعة كاليفورنيا، عقودًا في البحث في مجال الذكاء الاصطناعي. وحذّر من التهديد الأمني الذي يُشكّله الذكاء الاصطناعي، قائلاً إنه يُمكننا الآن إنتاج أسلحة هجومية ذاتية التشغيل من خلال دمج وتصغير التقنيات الحالية.

أجرى البروفيسور ستيوارت راسل ومعهد مستقبل الحياة (FLI) التجربة باستخدام روبوت قاتل (slaughterbot)، وهو جهاز طيران مجهري مزود بكاميرات، وأجهزة استشعار، وبرنامج لمعالجة الصور، وتقنية التعرف على الوجوه، ومتفجرات وزنها 3 غرامات، ومعالج دقيق عالي السرعة، مما يسمح بتحليل البيانات والاستجابة لها أسرع بمئة مرة من الدماغ البشري. ووفقًا لمعايير البرمجة، يتصل الروبوت القاتل باستمرار ببيانات السحابة للبحث عن معلومات حول الهدف وإيجاد طريقة للاقتراب منه. بمجرد العثور عليه، يندفع نحو الهدف بسرعة عالية، ويُفعّل المتفجرات التي تزن 3 غرامات، ويحفر عميقًا في الجمجمة، ويقتل الضحية في لمح البصر.

إنها مجرد تجربة للذكاء الاصطناعي في أبسط صوره. إذا استُخدم الذكاء الاصطناعي لتطوير أساليب هجوم جديدة وأكثر تطورًا، فقد يزيد أيضًا من قدرات المهاجمين الهجومية ويؤدي إلى عواقب أكثر خطورة من الهجمات التقليدية. عندما يتطور الذكاء الاصطناعي إلى درجة تمكنه من اتخاذ قرارات مستقلة للتعامل مع التغيرات في البيئة المحيطة أو إيجاد أهداف بديلة أو توسيع نطاق الأهداف، فربما لن تكون البشرية في مأمن. يتفق العديد من الزملاء في هذا المجال مع البروفيسور ستيوارت راسل، ويعتقدون أن هناك فرصة لمنع مثل هذا المستقبل القاتم، ولكن في الواقع، لم يتبقَّ لدينا الكثير من الوقت.

خطر تحول الذكاء الاصطناعي إلى منظمة ومستقلة ومسيطرة على النظام

يمكن تصميم الذكاء الاصطناعي بشكل غير صحيح أو "تدريبه" بشكل غير صحيح من خلال التعلم الآلي ويمكنه القيام بإجراءات غير مرغوب فيها، مما يتسبب في ضرر للأشخاص والبيئة. فيما يلي أمثلة محددة: مع التعلم الآلي، أصبح الذكاء الاصطناعي أكثر ذكاءً. عندما يصل الذكاء الاصطناعي إلى مستوى من الذكاء ينتقل من دعم الأنظمة المهمة مثل الكهرباء والنقل والرعاية الصحية والتمويل وما إلى ذلك، فإنه يمكنه إتقان جميع هذه الأنظمة والتحكم فيها واتخاذ القرارات وتنفيذها في حالات الطوارئ. عندما يتم "تجهيز" الذكاء الاصطناعي بأغراض "طموحة" إضافية (مصممة بشكل خاطئ)، يمكن أن يتسبب في العديد من العواقب الوخيمة مثل تعطيل نظام المرور عن طريق تعطيل نظام إشارات المرور أو قطع الطاقة عن نظام تشغيل القطارات الحضرية، مما يتسبب في سلسلة من الحوادث، مما يتسبب في انقطاع التيار الكهربائي على نطاق واسع، إلخ.

لقد أُنتجت العديد من أفلام هوليوود ودول أخرى استنادًا إلى هذا السيناريو. ومع ذلك، مع تقنيات الذكاء الاصطناعي الحالية، لم يعد هذا احتمالًا بعيدًا، بل يمكن أن يصبح حقيقة واقعة. يعتقد إيلون ماسك أنه إذا سُمح للذكاء الاصطناعي بالتطور بشكل لا يمكن السيطرة عليه، لدرجة أنه يمكنه أتمتة القرارات دون تدخل بشري، فقد يُشكل ذلك تهديدًا لبقاء البشرية. ولهذا السبب، وقّع هو وآلاف خبراء التكنولوجيا رسالة يطالبون فيها بوقف مؤقت ورقابة صارمة على عملية تطوير الذكاء الاصطناعي بطريقة شفافة. ووفقًا لإيلون ماسك، فإن أنظمة الذكاء الاصطناعي معقدة للغاية، ويصعب فهمها، ويصعب التحكم فيها. وبدون الشفافية، سيحدث بالتأكيد استخدام للذكاء الاصطناعي لأغراض غير أخلاقية، مما يُلحق الضرر بالبشر.

خطر فقدان الوظيفة وانتهاك الخصوصية

عند استخدامها لجمع المعلومات الشخصية، يمكن استخدام تقنية الذكاء الاصطناعي لانتهاك الخصوصية، والقيام بأنشطة تضليل، ونشر معلومات كاذبة تؤثر على الاستقرار الاجتماعي والسياسي. يُعد حادث هجوم قراصنة على نظام شبكة مكتب إدارة شؤون الموظفين (OPM) التابع للحكومة الأمريكية حدثًا بارزًا لأي دولة أو منظمة، حيث وقعت بيانات شخصية مفصلة وحساسة للغاية لـ 21.5 مليون مسؤول أمريكي حالي ومتقاعد، ومعلومات عن أزواجهم، وبيانات عن الأشخاص الذين تقدموا لوظائف حكومية مثل الحالة الصحية والإقامة والعمل وبصمات الأصابع والمعلومات المالية، في أيدي القراصنة. ومع ذلك، هناك حقيقة أكثر إثارة للخوف عندما اكتشفت وكالة المخابرات المركزية أن سارق بيانات مكتب إدارة شؤون الموظفين استخدم تقنية الذكاء الاصطناعي لمسح المعلومات الشخصية وتزييفها وإنشاء جواسيس افتراضيين لسرقة البيانات. سيتم تحليل المعلومات المسروقة وتصنيفها واستغلالها بواسطة تقنية البيانات الضخمة لأغراض محددة. تساعد تقنية الذكاء الاصطناعي سارق المعلومات على تقصير وقت استغلال المعلومات، لأن البشر غير قادرين على معالجة هذا الكم الهائل من المعلومات في مثل هذا الوقت القصير.

بالإضافة إلى المخاطر المذكورة أعلاه، تخلق تقنية الذكاء الاصطناعي أيضًا مخاطر أخرى مثل: الاعتماد المفرط عليها، مما يؤدي إلى فقدان الناس السيطرة على الموقف وتقليل القدرة على اتخاذ القرارات. سيتسبب الذكاء الاصطناعي أيضًا في فقدان الملايين، بل مئات الملايين من الناس لوظائفهم، وخاصة بالنسبة للوظائف اليدوية البحتة ذات المحتوى المعرفي القليل. ونتيجة لذلك، ستصبح المشاكل الاجتماعية الخطيرة مثل البطالة والجريمة والفجوة بين الأغنياء والفقراء أعمق. بالإضافة إلى ذلك، فإن الموثوقية هي أيضًا قضية يجب ذكرها. إن موثوقية القرارات في المجالات المتخصصة للغاية مثل الطب والقانون الجنائي ... مهمة للغاية. عند استخدام الذكاء الاصطناعي للمساعدة في اتخاذ القرارات في تلك المجالات التي لا تكون فيها التكنولوجيا موثوقة بدرجة كافية، أو تعمل بناءً على بيانات تميل إلى تفضيل شخص واحد أو مجموعة من الأشخاص أو يتم تشويهها عمدًا، فمن المرجح أن تسبب هذه القرارات عواقب وخيمة.

كيفية الوقاية؟

هذه المخاطر هي سبب قلق إيلون ماسك وخبراء التكنولوجيا إزاء التطور غير المنضبط للذكاء الاصطناعي، وقد كتبوا رسالةً يدعون فيها الأمم المتحدة والمنظمات الدولية إلى فرض رقابة صارمة على تطوير الذكاء الاصطناعي، وضمان السلامة والأخلاقيات فيه؛ وتعزيز التعاون الدولي لضمان استخدام تكنولوجيا الذكاء الاصطناعي بما يعود بالنفع على البشر والمجتمع. ويمكن تحديد بعض التدابير المحددة على النحو التالي:

- التحكم في موثوقية النظام: يجب تصميم الذكاء الاصطناعي وتطويره لضمان السلامة والموثوقية من خلال أساليب اختبار الجودة والتحكم والمراقبة الصارمة والمنتظمة والمستمرة لضمان عمل نظام الذكاء الاصطناعي وفقًا للتوقعات البشرية وتجنب التأثيرات غير المرغوب فيها الناجمة عن افتقاره إلى الموثوقية.

يجب برمجة تقنية الذكاء الاصطناعي للعمل وفقًا للقيم الأخلاقية والمعايير الاجتماعية. يجب تحديد هذه القواعد والمعايير بوضوح، ومراقبتها لضمان عدم تسببها في أي ضرر أو ضرر للأفراد أو المؤسسات. كما يجب إجراء عمليات تحليل وتقييم أثر أنظمة الذكاء الاصطناعي، ومراقبة تشغيلها بانتظام، لضمان عملها بشكل صحيح، وعدم انتهاكها أو إضعافها للقيم المشتركة للمجتمع ككل، وعدم تسببها في آثار سلبية، وضمان نقل المعرفة والقيم الصحيحة.

غادر مركز يمين ديل
الصحافة من أكثر الصناعات تأثرًا بالذكاء الاصطناعي. في المستقبل، لن تكون هناك حاجة لمقدمي البرامج لإيقاف تشغيلها في البرامج الإذاعية، بل سيهيمن حتى مقدمو البرامج الافتراضيون على تشغيلها في البرامج التلفزيونية.

- توقف مؤقت في "تدريب" أنظمة الذكاء الاصطناعي لمدة ستة أشهر على الأقل لإتاحة إعادة تقييم شاملة. يجب أن يكون هذا التوقف علنيًا ومُراقَبًا، وأن تشارك فيه جميع الجهات الفاعلة الرئيسية المشاركة في التدريب. وإذا لزم الأمر، ينبغي على الحكومات فرض وقف مؤقت. هذا لا يعني توقفًا تامًا لتطوير الذكاء الاصطناعي، بل يعني ببساطة توقفًا في السباق الخطير نحو نماذج تطوير أخرى، مما يجعل أنظمة الذكاء الاصطناعي أكثر دقة وأمانًا وسهولة في الفهم وشفافية واتساقًا وموثوقيةً وولاءً. هذا حل شامل يدعو إليه إيلون ماسك وزملاؤه في رسالتهم المفتوحة، ولكنه ليس عمليًا تمامًا. من الصعب جدًا على جميع المختبرات المستقلة الامتثال لمثل هذا النداء غير المُلزم والوطني.

تعزيز التعاون وتبادل المعلومات بين الدول ومنظمات أبحاث الذكاء الاصطناعي المستقلة لضمان تطوير الذكاء الاصطناعي واستخدامه بأمان في المستقبل. كما يُعدّ التعاون وتبادل المعلومات من التدابير اللازمة للتحذير الفوري من أي مخاطر قد تنشأ مستقبلًا ومنعها.

بشكل عام، أصبح الذكاء الاصطناعي حاضرًا في كل مكان حولنا، وأصبحت قصص مثل كتابة الشعر والموسيقى والمقالات حقيقةً ولم تعد خيالًا. وقد استخدم كاتب هذه المقالة تقنيات الذكاء الاصطناعي على أجهزة الكمبيوتر والهواتف للمساعدة، مما جعل عملية الكتابة أسهل وأسرع. وتحديدًا، فإن فصل هذه المقالة وبعض الأفكار مُقترحة من قِبل الذكاء الاصطناعي، وبشكل أكثر تحديدًا، فإن جميع الصور المستخدمة في هذه المقالة من ابتكاره. تُعدّ تقنية الذكاء الاصطناعي مفيدة جدًا في تحسين جودة العمل والحياة البشرية، ولكنها تحتاج إلى رقابة صارمة حتى لا تخرج عن السيطرة وتُصبح خطرًا يهدد باستبدال البشر في المستقبل، كما توقع الفيزيائي النظري ستيفن هوكينج.

المقال والصور: هوو دونغ

[إعلان 2]
مصدر

تعليق (0)

No data
No data
قطع من اللون - قطع من اللون
مشهد ساحر على تلة الشاي "الوعاء المقلوب" في فو ثو
3 جزر في المنطقة الوسطى تشبه جزر المالديف وتجذب السياح في الصيف
شاهد مدينة جيا لاي الساحلية الرائعة في كوي نون في الليل
صورة للحقول المتدرجة في فو ثو، المنحدرة بلطف، والمشرقة والجميلة مثل المرايا قبل موسم الزراعة
مصنع Z121 جاهز لليلة الختام الدولية للألعاب النارية
مجلة سفر شهيرة تشيد بكهف سون دونغ وتصفه بأنه "الأكثر روعة على هذا الكوكب"
كهف غامض يجذب السياح الغربيين، يشبه كهف "فونج نها" في ثانه هوا
اكتشف الجمال الشعري لخليج فينه هاي
كيف تتم معالجة أغلى أنواع الشاي في هانوي، والذي يصل سعره إلى أكثر من 10 ملايين دونج للكيلوغرام؟

إرث

شكل

عمل

No videos available

أخبار

النظام السياسي

محلي

منتج