العالم ليس جاهزًا للذكاء العام الاصطناعي (AGI)، أو النقطة التي يصبح فيها الذكاء الاصطناعي ذكيًا مثل الدماغ البشري، وفقًا لباحث كبير في OpenAI.
هل الذكاء الاصطناعي العام يشكل خطرا؟
لسنوات، تكهن الباحثون بظهور الذكاء الاصطناعي العام (AGI)، حيث ستتمكن الأنظمة الاصطناعية من أداء مجموعة واسعة من المهام بكفاءة البشر. ويرى كثيرون أن ظهوره يُمثل خطرًا وجوديًا، إذ قد يسمح لأجهزة الكمبيوتر بالعمل بطرق لا يمكن للبشر تخيلها.
بحسب السيد مايلز بريندج، فإن العالم ليس جاهزًا لعصر الذكاء الاصطناعي العام (AGI).
الآن، يُقرّ المسؤول عن ضمان جاهزية شركة OpenAI، مُطوّرة ChatGPT، للذكاء الاصطناعي العام، بأنّ العالم والشركة نفسها ليسا "مستعدّين" للخطوة التالية. كان مايلز برونداج مستشارًا أول لشركة OpenAI في مجال جاهزية الذكاء الاصطناعي العام، ولكنه أعلن رحيله هذا الأسبوع بعد أن قامت الشركة بحلّ الفريق.
قال برونداج، الذي أمضى ست سنوات في المساهمة في صياغة مبادرات سلامة الذكاء الاصطناعي الخاصة بالشركة: "لا شركة OpenAI ولا أي مختبر رائد آخر مستعد (للذكاء الاصطناعي العام)، وكذلك العالم. وللتوضيح، لا أعتقد أن هذا تصريح مثير للجدل بين قادة OpenAI، بل هو مسألة تتعلق بما إذا كانت الشركة والعالم على الطريق الصحيح للاستعداد في الوقت المناسب".
يُمثل رحيل بروندج أحدثَ رحيلٍ بارزٍ في سلسلةٍ من الرحيلاتِ البارزةِ لفرقِ السلامةِ في OpenAI. غادرَ الباحثُ البارزُ جان لايكي الشركةَ بعدَ تصريحه بأنّ "ثقافةَ السلامةِ وعملياتِها قد تراجعتْ أمامَ المنتجاتِ اللامعة". كما غادرَ المؤسسُ المشاركُ إيليا سوتسكيفر الشركةَ لإطلاقِ شركتهِ الناشئةِ في مجالِ الذكاءِ الاصطناعي، والتي تُركّزُ على تطويرِ الذكاءِ الاصطناعيِّ العامِّ الآمن.
ويأتي تفكيك بروندج لمجموعة "AGI Readiness" بعد أشهر فقط من تفكيك الشركة لمجموعة "Superalignment" المخصصة للتخفيف من مخاطر الذكاء الاصطناعي على المدى الطويل، مما كشف عن التوترات بين المهمة الأصلية لـ OpenAI وطموحاتها التجارية.
ضغط الربح يدفع OpenAI بعيدًا عن المسار الآمن
تُشير التقارير إلى أن شركة OpenAI تواجه ضغوطًا للتحول من شركة غير ربحية إلى شركة ربحية في غضون عامين، وإلا ستُخاطر بفقدان التمويل من جولة استثمارية أخيرة بقيمة 6.6 مليار دولار. لطالما كان هذا التحول نحو التسويق التجاري مصدر قلق لبروندج، الذي أبدى تحفظات منذ عام 2019 عندما أنشأت OpenAI قسمها الربحي.
يشعر سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بـ"صداع" بسبب الضغوط التي تواجهها الشركة من أجل تحقيق الأرباح.
في معرض شرحه لرحيله، أشار بروندج إلى القيود المتزايدة على حريته في البحث والنشر في هذه الشركة العريقة. وأكد على ضرورة وجود صوت مستقل في مناقشات سياسات الذكاء الاصطناعي، بعيدًا عن تحيزات الصناعة وتضارب المصالح. وبعد أن قدم استشارات لقيادة OpenAI بشأن الاستعدادات الداخلية، يعتقد أنه يستطيع الآن التأثير بشكل أكبر على حوكمة الذكاء الاصطناعي العالمية من خارج الشركة.
تعكس هذه المغادرات أيضًا انقسامًا ثقافيًا أعمق داخل OpenAI. انضم العديد من الباحثين لتطوير أبحاث الذكاء الاصطناعي، لكنهم يجدون أنفسهم الآن في بيئة تعتمد بشكل متزايد على المنتجات. أصبح تخصيص الموارد الداخلية نقطة خلاف، إذ تشير التقارير إلى أن فريق لايك حُرم من قوة الحوسبة اللازمة لأبحاث السلامة قبل حله.
واجهت OpenAI تساؤلات في الأشهر الأخيرة حول خططها لتطوير الذكاء الاصطناعي ومدى جديتها في مراعاة السلامة. ورغم تأسيسها كمنظمة غير ربحية تُعنى بأبحاث بناء ذكاء اصطناعي آمن، إلا أن نجاح ChatGPT جلب استثمارات كبيرة وضغطًا كبيرًا لاستخدام التكنولوجيا الجديدة لتحقيق الربح.
[إعلان 2]
المصدر: https://www.baogiaothong.vn/the-gioi-chua-san-sang-phat-trien-ai-thong-minh-nhu-bo-nao-con-nguoi-192241027005459507.htm
تعليق (0)