رسم توضيحي للدعوة إلى التعامل مع الذكاء الاصطناعي باعتباره سلاحًا بيولوجيًا. (المصدر: gizmodo.com) |
في مقال بعنوان "تعامل مع الذكاء الاصطناعي كسلاح بيولوجي وليس سلاحًا نوويًا" بقلم إميليا جافورسكي، عالمة وطبيبة ومديرة معهد مستقبل الحياة (الولايات المتحدة الأمريكية)، تزعم الكاتبة أنه على الرغم من حقيقة أن العالم قارن مؤخرًا بشكل متكرر الذكاء الاصطناعي بالقنابل النووية، إلا أن هناك نهجًا أكثر ملاءمة، وهو تنظيم هذا النوع من التكنولوجيا كسلاح بيولوجي أو تكنولوجيا حيوية.
وفقا للمؤلف، فإن الذكاء الاصطناعي هو ربما أقوى تقنية في تاريخ البشرية والتي يقوم البشر بتطويرها اليوم. إن الأضرار التي تسببها الذكاء الاصطناعي، بما في ذلك التمييز والتهديدات للديمقراطية وتركيز النفوذ، موثقة جيدًا.
ومع ذلك، تتسابق شركات الذكاء الاصطناعي الرائدة لبناء أنظمة ذكاء اصطناعي قوية بشكل متزايد، مما يؤدي إلى تصاعد المخاطر بمعدل غير مسبوق في تاريخ البشرية.
وبينما يسعى القادة إلى إيجاد طريقة لاحتواء والسيطرة على صعود الذكاء الاصطناعي والمخاطر المرتبطة به، فإنهم بحاجة إلى النظر في التعديلات والمعايير التي استخدمتها البشرية لإنشائه في الماضي.
إن التكيف والابتكار يمكن أن يتعايشا، وخاصة عندما تكون حياة البشر على المحك.
تحذير من التكنولوجيا النووية
على الرغم من أن الطاقة النووية أكثر أمانا من النفط بما يزيد على 600 مرة من حيث الوفيات، وهي فعالة للغاية، فإن عددا قليلا من البلدان تقترب منها بسبب العواقب التي شهدتها من النهج طويل الأمد تجاه الطاقة النووية.
يعرف العالم التكنولوجيا النووية في شكل القنابل الذرية والقنابل الهيدروجينية. وبفضل هذه الأسلحة، ولأول مرة في التاريخ، تمكن البشر من تطوير تكنولوجيا قادرة على إنهاء الحضارة الإنسانية، وهي نتاج سباق تسلح أعطى الأولوية للسرعة والابتكار على السلامة والسيطرة.
لقد أدت الإخفاقات اللاحقة في السلامة التقنية وإدارة المخاطر، والتي كانت مسؤولة بشكل كبير عن الكوارث النووية في تشيرنوبيل وفوكوشيما، إلى تدمير أي فرصة للناس لقبول الجوانب الإيجابية للطاقة النووية.
وعلى الرغم من التقييم الإيجابي العام للمخاطر المرتبطة بالطاقة النووية، وعقود من محاولات العلماء إقناع العالم بجدواها، فإن مفهوم "الطاقة النووية" نفسه لا يزال... ملوثاً.
عندما تسبب التكنولوجيا ضررًا في مراحلها المبكرة، فإن الإدراك الاجتماعي وردود الفعل المبالغ فيها اللاحقة يمكن أن تحد بشكل دائم من فوائدها المحتملة. ونتيجة للخطوات الأولية الخاطئة في التعامل مع الطاقة النووية، لم يتمكن البشر من الاستفادة من مصدر الطاقة النظيف والآمن، في حين تظل الحياد الكربوني واستقرار الطاقة حلما غير واقعي إلى حد ما.
النهج الصحيح للتكنولوجيا الحيوية
ولكن في بعض المناطق، نجح البشر في تحقيق أهدافهم. التكنولوجيا الحيوية هي أحد هذه المجالات، والتي يتم تشجيعها على التطور السريع في سياق معاناة العديد من المرضى ووفيات عديدة تحدث كل يوم بسبب أمراض ليس لها علاج.
إن جوهر هذا البحث ليس "التحرك بسرعة وكسر الأشياء"، بل الابتكار بأسرع ما يمكن وبأمان. إن البشر يحدون من وتيرة الابتكار في هذا المجال من خلال نظام من القواعد والأخلاق والمعايير التي تحمي رفاهة المجتمع والأفراد، في حين تحمي الصناعة من الشلل الناجم عن ردود الفعل العكسية التي قد تؤدي إلى الكارثة.
عندما تم حظر الأسلحة البيولوجية في اتفاقية الأسلحة البيولوجية خلال الحرب الباردة، اتفقت القوى العظمى المتعارضة على أن إنتاج مثل هذه الأسلحة لم يكن في مصلحة أحد. ورأى القادة أن هذه التقنيات التي يصعب السيطرة عليها ولكن يسهل الوصول إليها لا ينبغي النظر إليها باعتبارها آلية للفوز في سباق التسلح، بل باعتبارها تهديداً للإنسانية نفسها.
إميليا جافورسكي هي واحدة من العلماء الذين وقعوا مؤخرًا على رسالة مفتوحة تدعو إلى إيقاف تطوير الذكاء الاصطناعي لمدة ستة أشهر. كما وقعت على بيان يحذر من أن الذكاء الاصطناعي يشكل "خطر الانقراض" على البشرية. |
إن التوقف المؤقت في سباق الأسلحة البيولوجية يسمح للبشر بتطويرها بوتيرة مسؤولة. ويطبق العلماء والهيئات التنظيمية معايير صارمة على أي ابتكار جديد من الممكن أن يضر بالبشر.
ولم تكن هذه التعديلات خالية من التكلفة، ولكنها أدت إلى إنشاء اقتصاد حيوي ، مع العديد من التطبيقات في مجالات تتراوح من الطاقة النظيفة إلى الزراعة.
خلال جائحة كوفيد-19، استخدم علماء الأحياء تقنية mRNA لإنتاج لقاحات فعالة بسرعة غير مسبوقة في تاريخ البشرية.
أظهرت دراسة حديثة أجراها باحثون في مجال الذكاء الاصطناعي أن 36% من المشاركين يعتقدون أن الذكاء الاصطناعي قد يتسبب في كارثة نووية. ومع ذلك، كانت استجابة الحكومة والتعديلات التي اتخذتها بطيئة. ولكن هذه الوتيرة لا تتوافق مع وتيرة تبني التكنولوجيا، حيث تجاوز عدد مستخدمي تطبيق ChatGPT الآن 100 مليون مستخدم.
لقد دفعت المخاطر المتصاعدة بسرعة للذكاء الاصطناعي 1800 من الرؤساء التنفيذيين و1500 أستاذ جامعي في الولايات المتحدة إلى التوقيع مؤخرًا على رسالة تدعو إلى توقف تطوير الذكاء الاصطناعي لمدة ستة أشهر وعملية عاجلة للتنظيم والتخفيف من المخاطر. إن هذا التوقف المؤقت سوف يمنح المجتمع العالمي الوقت الكافي للحد من الأضرار التي تسببها الذكاء الاصطناعي ومنع ما يمكن أن يكون كارثة لا رجعة فيها لمجتمعنا.
عند تقييم المخاطر والأضرار المحتملة للذكاء الاصطناعي، يجب علينا أيضًا أن نأخذ في الاعتبار الإمكانات الإيجابية لهذه التكنولوجيا. إذا قمنا بتطوير الذكاء الاصطناعي بشكل مسؤول الآن، فسوف نحصد فوائد مذهلة من هذه التكنولوجيا. على سبيل المثال، فوائد تطبيق الذكاء الاصطناعي في اكتشاف الأدوية وتطويرها، وتحسين جودة الرعاية الصحية وتكلفتها، وزيادة فرص الوصول إلى الأطباء والعلاج الطبي.
أثبتت تقنية DeepMind التابعة لشركة Google أن الذكاء الاصطناعي قادر على حل المشاكل الأساسية في علم الأحياء والتي تجنبها البشر منذ فترة طويلة. وبحسب الأبحاث، فإن الذكاء الاصطناعي قادر على تسريع تحقيق جميع أهداف التنمية المستدامة للأمم المتحدة، مما يدفع البشرية نحو مستقبل يتمتع بصحة أفضل، ومساواة، وازدهار، وسلام.
إن هذه لحظة مناسبة للمجتمع الدولي للتجمع معًا، كما فعل قبل خمسين عامًا في اتفاقية الأسلحة البيولوجية، لضمان أن يكون تطوير الذكاء الاصطناعي آمنًا ومسؤولًا. إذا لم نتحرك سريعًا، فقد ندمر المستقبل المشرق للذكاء الاصطناعي بالإضافة إلى مجتمعنا الحالي.
[إعلان 2]
مصدر
تعليق (0)