في الواقع، هذه ليست المرة الأولى التي يحذر فيها العلماء من احتمال أن يصبح الذكاء الاصطناعي خطيراً على البشر. في عام 2014، قال عالم الفيزياء النظرية البريطاني الشهير ستيفن هوكينج: "إن التطور الكامل للذكاء الاصطناعي قد يؤدي إلى تدمير البشرية". وقال أيضا إن البشر سوف يتم استبدالهم بالكامل بالذكاء الاصطناعي خلال الـ500 عام القادمة إذا لم يكونوا حذرين في البحث والتطوير لهذه التكنولوجيا الخطيرة. قبل ثماني سنوات، في يوليو/تموز 2015، وقع أكثر من ألف خبير في مجال أبحاث تكنولوجيا الذكاء الاصطناعي، بما في ذلك ستيفن هوكينج وإيلون ماسك ونعوم تشومسكي، على عريضة تحذر من خطر سباق التسلح في مجال الذكاء الاصطناعي العسكري ، وتدعو إلى فرض حظر شامل على الأسلحة المستقلة. أضاف إطلاق OpenAI لتطبيق Chat GPT في نوفمبر 2022 جرس إنذار آخر للمخاطر الوجودية الناجمة عن الذكاء الاصطناعي. في الواقع، ما يفعله Chat GPT يظهر أن الذكاء الاصطناعي، إلى حد ما، أكثر خطورة مما كان يعتقد البشر في السابق.
تعتمد المخاطر المحتملة للذكاء الاصطناعي على كيفية استخدامه. في البداية، طُوِّر الذكاء الاصطناعي لمساعدة البشر في عملهم، وخاصةً في المهام المملة والمتكررة مثل تصنيف الصور ومراجعة المعلومات وما إلى ذلك. ومع ذلك، مع التطور السريع للذكاء الاصطناعي في الآونة الأخيرة، يشعر العلماء وخبراء التكنولوجيا بالقلق من أنه إذا طُوِّر بشكل لا يمكن السيطرة عليه أو بُرمج لغرض خاطئ، فقد يُسبب الذكاء الاصطناعي عواقب وخيمة على البشر والمجتمع.
خطر انعدام الأمن
قد يشكل الذكاء الاصطناعي تهديدًا للأمن القومي والسلامة الشخصية. حذر إيلون ماسك من أن الذكاء الاصطناعي قد يصبح أداة مرعبة في الحرب. إذا استطاعت دولة ما تطوير نظام ذكاء اصطناعي متفوق، فإنها تستطيع استخدامه لمهاجمة دول أخرى. لقد أمضى ستيوارت راسل، أستاذ علوم الكمبيوتر في جامعة كاليفورنيا، عقودًا من الزمن في البحث في مجال الذكاء الاصطناعي. وحذر من التهديد الأمني الذي تشكله الذكاء الاصطناعي، وقال إنه يمكننا الآن إنتاج أسلحة هجومية مستقلة من خلال دمج وتصغير التقنيات الحالية.
أجرى البروفيسور ستيوارت راسل ومعهد مستقبل الحياة (FLI) التجربة باستخدام روبوت قاتل (slaughterbot)، وهو جهاز طيران مجهري مزود بكاميرات وأجهزة استشعار وبرامج معالجة الصور والتعرف على الوجه ومتفجرات تزن 3 جرام ومعالج دقيق عالي السرعة، مما يسمح بتحليل البيانات والتفاعل أسرع بـ 100 مرة من الدماغ البشري. وفقًا لمعايير البرمجة، يقوم الروبوت القاتل بالوصول بشكل مستمر إلى بيانات السحابة للبحث عن معلومات حول الهدف وإيجاد طريقة للوصول إليه. بمجرد العثور عليه، سوف يندفع مباشرة نحو الهدف بسرعة عالية، مما يؤدي إلى تنشيط المتفجرات التي يبلغ وزنها 3 جرام، والحفر عميقًا في الجمجمة، مما يؤدي إلى مقتل الضحية في غمضة عين.
لقد كانت مجرد تجربة مع الذكاء الاصطناعي في أبسط مستوياته. إذا تم استخدام الذكاء الاصطناعي لتطوير أساليب هجوم جديدة وأكثر تطوراً، فقد يؤدي ذلك أيضاً إلى زيادة قدرات المهاجمين على الهجوم ويؤدي إلى عواقب أكثر خطورة من الهجمات التقليدية. عندما يتم تطوير الذكاء الاصطناعي إلى الحد الذي يجعله قادرًا على اتخاذ قراراته الخاصة للتعامل مع التغيرات في البيئة المحيطة أو البحث عن أهداف بديلة أو توسيع نطاق هدفه، فقد لا يكون البشر آمنين بعد الآن. ويتفق العديد من الزملاء في هذا المجال مع البروفيسور ستيوارت راسل، ويؤكدون على أن هناك فرصة لمنع مثل هذا المستقبل القاتم، ولكننا في الواقع لا نملك الكثير من الوقت المتبقي.
خطر تحول الذكاء الاصطناعي إلى منظمة ومستقلة ومسيطرة على النظام
يمكن تصميم الذكاء الاصطناعي بشكل غير صحيح أو "تدريبه" بشكل غير صحيح من خلال التعلم الآلي ويمكنه القيام بأفعال غير مرغوب فيها، مما يتسبب في ضرر للأشخاص والبيئة. ومن الأمثلة المحددة على ذلك ما يلي: مع التعلم الآلي، أصبحت الذكاء الاصطناعي أكثر ذكاءً. عندما يصل الذكاء الاصطناعي إلى مستوى من الذكاء يبدأ من دعم أنظمة مهمة مثل الكهرباء والنقل والرعاية الصحية والمالية وما إلى ذلك، فإنه يصبح قادرًا على إتقان جميع هذه الأنظمة والتحكم فيها واتخاذ هذه القرارات وتنفيذها في حالات الطوارئ. عندما يتم "تزويد" الذكاء الاصطناعي بأغراض "متعمدة" إضافية (تصميم مضلل)، فإنه يمكن أن يسبب العديد من العواقب الخطيرة مثل تعطيل نظام المرور عن طريق تعطيل نظام إشارات المرور أو قطع الطاقة عن نظام تشغيل القطارات الحضرية، مما يتسبب في سلسلة من الحوادث، مما يتسبب في انقطاع التيار الكهربائي على نطاق واسع.
لقد تم إنتاج العديد من الأفلام الهوليودية والعالمية استنادًا إلى هذا السيناريو. ومع ذلك، مع تكنولوجيا الذكاء الاصطناعي الحالية، لم يعد هذا الأمر احتمالًا بعيدًا، بل يمكن أن يصبح حقيقة واقعة تمامًا. يعتقد إيلون ماسك أنه إذا سُمح للذكاء الاصطناعي بالتطور دون قيود، إلى الحد الذي يمكنه فيه أتمتة القرارات دون تدخل بشري، فقد يشكل ذلك تهديدًا لبقاء الإنسان. ولهذا السبب قام هو وآلاف الخبراء في مجال التكنولوجيا بالتوقيع على رسالة تطالب بوقف ومراقبة صارمة لتطوير الذكاء الاصطناعي بطريقة شفافة. وفقا لإيلون ماسك، فإن أنظمة الذكاء الاصطناعي معقدة، ويصعب فهمها، ويصعب التحكم فيها للغاية. في غياب الشفافية، فإن استخدام الذكاء الاصطناعي لأغراض غير أخلاقية تسبب الضرر للبشر أمر لا مفر منه.
خطر فقدان الوظيفة وانتهاك الخصوصية
عند استخدامها لجمع المعلومات الشخصية، يمكن استخدام تقنية الذكاء الاصطناعي لانتهاك الخصوصية، والقيام بأنشطة التضليل، ونشر معلومات كاذبة تؤثر على الأوضاع الاجتماعية والاستقرار السياسي. إن حادثة هجوم قراصنة على نظام شبكة مكتب إدارة الموظفين التابع للحكومة الأمريكية جديرة بالملاحظة لأي دولة أو منظمة عندما سقطت في أيدي القراصنة بيانات شخصية مفصلة وحساسة للغاية تخص 21.5 مليون مسؤول أمريكي حالي ومتقاعد، ومعلومات عن أزواجهم، وبيانات عن الأشخاص الذين تقدموا لوظائف حكومية مثل الحالة الصحية ومكان الإقامة والوظيفة وبصمات الأصابع والمعلومات المالية. ولكن هناك حقيقة أكثر إثارة للخوف عندما اكتشفت وكالة المخابرات المركزية أن سارق البيانات التابع لمكتب إدارة الموظفين استخدم تكنولوجيا الذكاء الاصطناعي لمسح البيانات وتزييف المعلومات الشخصية وإنشاء جواسيس افتراضيين لسرقة البيانات. سيتم تحليل المعلومات المسروقة وتصنيفها واستغلالها بواسطة تقنية البيانات الضخمة لأغراض محددة. تساعد تقنية الذكاء الاصطناعي لصوص المعلومات على تقصير الوقت المستغرق لاستغلال المعلومات لأن البشر غير قادرين على معالجة مثل هذه الكمية الضخمة من المعلومات في مثل هذا الوقت القصير.
بالإضافة إلى المخاطر الموجودة المذكورة أعلاه، فإن تقنية الذكاء الاصطناعي تخلق أيضًا مخاطر أخرى مثل: الاعتماد المفرط عليها، مما يؤدي إلى فقدان البشر السيطرة على الموقف وتقليل القدرة على اتخاذ القرارات. وسوف يتسبب الذكاء الاصطناعي أيضًا في فقدان الملايين، بل مئات الملايين من الناس لوظائفهم، وخاصة بالنسبة للوظائف التي تعتمد على العمل اليدوي البحت مع محتوى معرفي ضئيل. ومن ثم فإن المشاكل الاجتماعية الخطيرة مثل البطالة والجريمة والفجوة بين الأغنياء والفقراء سوف تصبح أعمق. بالإضافة إلى ذلك، فإن الموثوقية هي أيضًا قضية يجب مراعاتها. إن موثوقية القرارات في المجالات المتخصصة للغاية مثل الطب والعدالة الجنائية... أمر في غاية الأهمية. عندما يتم استخدام الذكاء الاصطناعي للمساعدة في اتخاذ القرارات في المناطق التي تكون فيها التكنولوجيا غير موثوقة، أو تعمل على أساس بيانات متحيزة تجاه شخص واحد أو مجموعة من الأشخاص، أو يتم تشويهها عمدًا، فإن هذه القرارات لديها القدرة على أن يكون لها عواقب وخيمة.
كيفية الوقاية؟
إن المخاطر المذكورة أعلاه هي السبب وراء قلق إيلون ماسك وخبراء التكنولوجيا بشأن التطوير غير المنضبط للذكاء الاصطناعي وكتبوا رسالة تدعو الأمم المتحدة والمنظمات الدولية إلى فرض رقابة صارمة وضمان السلامة والأخلاق في تطوير الذكاء الاصطناعي؛ تعزيز التعاون الدولي لضمان استخدام تكنولوجيا الذكاء الاصطناعي بما يعود بالنفع على الناس والمجتمع. ومن الممكن تحديد بعض التدابير المحددة التالية:
- التحكم في موثوقية النظام: يجب تصميم الذكاء الاصطناعي وتطويره لضمان السلامة والموثوقية من خلال أساليب اختبار الجودة والتحكم والمراقبة الصارمة والمنتظمة والمستمرة لضمان عمل نظام الذكاء الاصطناعي وفقًا للتوقعات البشرية وتجنب التأثيرات غير المرغوب فيها الناجمة عن افتقاره إلى الموثوقية.
- يجب برمجة تكنولوجيا الذكاء الاصطناعي للعمل وفقًا للقيم الأخلاقية والمعايير الاجتماعية. وتحتاج هذه القواعد والمعايير إلى وضع واضح ويجب مراقبتها للتأكد من أنها لا تؤدي إلى أي شيء سيئ أو ضار للأشخاص أو المنظمات. ويجب أيضًا أن تتم عملية تحليل وتقييم التأثير ومراقبة تشغيل أنظمة الذكاء الاصطناعي بشكل منتظم لضمان التشغيل القياسي وعدم انتهاك القيم المشتركة للمجتمع بأكمله وتآكلها وعدم التسبب في آثار سلبية وضمان نقل المعرفة والقيم الصحيحة.
- إيقاف "التدريب" لمدة 6 أشهر على الأقل حتى تتمكن أنظمة الذكاء الاصطناعي من إعادة تقييم المشكلة برمتها. يجب أن يكون هذا التعليق علنيًا وخاضعًا للرقابة ويجب إشراك جميع اللاعبين الرئيسيين المشاركين في هذا التدريب. وإذا لزم الأمر، ينبغي للحكومات أن تصدر حظرا مؤقتا. ولكن هذا لا يعني وقف تطوير الذكاء الاصطناعي تماما، بل يعني ببساطة التوقف في السباق الخطير للانتقال إلى نماذج تطوير أخرى، مما يجعل أنظمة الذكاء الاصطناعي أكثر دقة وأمانًا وفهمًا وشفافية وأهمية وجدارة بالثقة ومخلصة. وهذا حل شامل دعا إليه إيلون ماسك وزملاؤه في الرسالة المفتوحة، لكن إمكانية تنفيذه ليست عالية. ومن الصعب على جميع المختبرات المستقلة الالتزام بمثل هذه الدعوة غير الملزمة والعابرة للحدود الوطنية.
- تعزيز التعاون وتبادل المعلومات بين البلدان ومنظمات أبحاث الذكاء الاصطناعي المستقلة لضمان تطوير الذكاء الاصطناعي واستخدامه بأمان في المستقبل. ويعد التعاون وتبادل المعلومات أيضًا من الإجراءات التي من شأنها التحذير الفوري ومنع أي مخاطر قد تنشأ في المستقبل.
بشكل عام، كان الذكاء الاصطناعي موجودًا في كل مكان حولنا، وأصبحت القصص مثل الذكاء الاصطناعي الذي يكتب الشعر والموسيقى والمقالات حقيقة ولم تعد خيالًا علميًا. لقد استخدم مؤلف هذا المقال بنفسه تقنية الذكاء الاصطناعي على أجهزة الكمبيوتر والهواتف للمساعدة، مما جعل عملية الكتابة الخاصة به أكثر ملاءمة وسرعة. على وجه التحديد، تم اقتراح مقدمة هذه المقالة وبعض الأفكار بواسطة الذكاء الاصطناعي، وبشكل أكثر تحديدًا، تم إنشاء جميع الصور المستخدمة في هذه المقالة بواسطة الذكاء الاصطناعي. تعتبر تقنية الذكاء الاصطناعي مفيدة جدًا في تحسين جودة العمل والحياة البشرية، إلا أنها تحتاج إلى رقابة مشددة حتى لا تخرج عن السيطرة وتصبح خطرًا قد يحل محل البشر في المستقبل كما تنبأ الفيزيائي النظري ستيفن هوكينج.
المقال والصور: هوو دونغ[إعلان 2]
مصدر
تعليق (0)