العالم ليس جاهزًا للذكاء العام الاصطناعي (AGI)، أو اللحظة التي يصبح فيها الذكاء الاصطناعي ذكيًا مثل الدماغ البشري، وفقًا لباحث كبير في OpenAI.
هل يشكل الذكاء الاصطناعي العام خطرا؟
لسنوات، تكهن الباحثون بظهور الذكاء الاصطناعي العام (AGI)، عندما تصبح الأنظمة الاصطناعية قادرة على أداء مجموعة واسعة من المهام بكفاءة البشر. ويرى كثيرون أن ظهوره يُمثل خطرًا وجوديًا، إذ قد يسمح لأجهزة الكمبيوتر بالتصرف بطرق لم يكن البشر ليتخيلوها.
بحسب السيد مايلز بريندج، فإن العالم ليس مستعدًا بعد لحظة الذكاء الاصطناعي العام (AGI).
الآن، يُقرّ المسؤول عن ضمان جاهزية شركة OpenAI، مُطوّرة ChatGPT، للذكاء الاصطناعي العام، بأنّ العالم والشركة نفسها ليسا "مستعدّين" للخطوة التالية. كان مايلز برونداج "المستشار الأول لشركة OpenAI بشأن جاهزية الذكاء الاصطناعي العام"، ولكنه أعلن رحيله هذا الأسبوع مع حلّ الشركة للمجموعة.
قال بروندج، الذي أمضى ست سنوات في المساهمة في صياغة مبادرات سلامة الذكاء الاصطناعي للشركة: "لا شركة OpenAI ولا أي مختبر رائد آخر مستعد [للذكاء الاصطناعي العام]، وكذلك العالم. وللتوضيح، لا أعتقد أن هذا تصريح مثير للجدل بين قادة OpenAI، بل هو مسألة تتعلق بما إذا كانت الشركة والعالم على الطريق الصحيح للاستعداد في الوقت المناسب".
يُمثل رحيل بروندج أحدثَ رحيلٍ في سلسلةٍ من الاستقالات البارزة من فرق السلامة في OpenAI. غادر الباحث البارز جان لايكي الشركةَ بعد أن صرَّح بأن "ثقافةَ السلامةِ وعملياتِها قد تراجعتْ أمامَ المنتجاتِ اللامعة". كما غادرَ المؤسسُ المشاركُ إيليا سوتسكيفر الشركةَ لإطلاقِ شركتهِ الناشئةِ في مجالِ الذكاءِ الاصطناعي، والتي تُركِّزُ على تطويرِ الذكاءِ الاصطناعيِّ العامِّ الآمن.
ويأتي تفكيك بروندج لمجموعة "AGI Readiness" بعد أشهر فقط من تفكيك الشركة لمجموعة "Superalignment" المخصصة للتخفيف من مخاطر الذكاء الاصطناعي على المدى الطويل، مما يكشف عن التوترات بين مهمة OpenAI الأصلية وطموحات الشركة التجارية.
ضغط الربح يدفع OpenAI بعيدًا عن الأمان
يُقال إن شركة OpenAI تواجه ضغوطًا للتحول من شركة غير ربحية إلى شركة ربحية في غضون عامين، وإلا ستُخاطر بفقدان التمويل من جولة استثمارية أخيرة بقيمة 6.6 مليار دولار. لطالما كان هذا التحول نحو التسويق التجاري مصدر قلق لبروندج، الذي أبدى تحفظات منذ عام 2019 عندما أنشأت OpenAI قسمها الربحي.
يشعر سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بـ"صداع" بسبب الضغوط التي تواجهها الشركة لتحقيق الربح.
في معرض شرحه لرحيله، أشار بروندج إلى القيود المتزايدة على حريته في البحث والنشر في الشركة العريقة. وأكد على ضرورة وجود صوت مستقل في مناقشات سياسات الذكاء الاصطناعي، بعيدًا عن تحيزات الصناعة وتضارب المصالح. وبعد أن قدم استشارات لقيادة OpenAI بشأن الاستعدادات الداخلية، يعتقد أنه يستطيع الآن إحداث تأثير أكبر على حوكمة الذكاء الاصطناعي العالمية من خارج الشركة.
تعكس هذه المغادرات أيضًا انقسامًا ثقافيًا أعمق داخل OpenAI. انضم العديد من الباحثين لتطوير أبحاث الذكاء الاصطناعي، لكنهم يجدون أنفسهم الآن في بيئة تعتمد بشكل متزايد على المنتجات. أصبح تخصيص الموارد الداخلية نقطة خلاف - تشير التقارير إلى أن فريق لايك حُرم من قوة الحوسبة اللازمة لأبحاث السلامة قبل حله.
واجهت شركة OpenAI تساؤلات في الأشهر الأخيرة حول خططها لتطوير الذكاء الاصطناعي ومدى جديتها في مراعاة السلامة. ورغم تأسيسها كمنظمة غير ربحية تُعنى بأبحاث بناء ذكاء اصطناعي آمن، إلا أن نجاح ChatGPT جلب استثمارات ضخمة وضغطًا كبيرًا لاستخدام التكنولوجيا الجديدة لتحقيق الربح.
[إعلان 2]
المصدر: https://www.baogiaothong.vn/the-gioi-chua-san-sang-phat-trien-ai-thong-minh-nhu-bo-nao-con-nguoi-192241027005459507.htm
تعليق (0)