بحسب مصادر موقع Tech.co ، فبينما كانت تتكشف فصول الجدل المحيط بإقالة الرئيس التنفيذي سام ألتمان وعودته اللاحقة إلى شركة OpenAI، كانت إحدى الشائعات المتداولة تتعلق برسالة أرسلها باحثو الشركة إلى مجلس الإدارة، يعربون فيها عن مخاوفهم بشأن نموذج الذكاء الاصطناعي الفائق الذي يتطور والذي قد يشكل تهديدًا للبشرية.
(صورة توضيحية)
مشروع كيو*
يُروج لهذا النموذج، المعروف داخليًا باسم Project Q* (يُنطق Q-star)، باعتباره يمثل اختراقًا كبيرًا محتملاً في سعي OpenAI نحو الذكاء الاصطناعي العام (AGI) - وهو فرع مستقل للغاية من الذكاء الخارق قادر على التعلم التراكمي والتفوق على البشر في معظم المهام.
وبحسب مصادر مطلعة على الأمر، فإن Q* يمكن أن يمثل قفزة كبيرة إلى الأمام في مجال الذكاء الاصطناعي من خلال تحسين قدرات التفكير في الذكاء الاصطناعي بشكل جذري وتقريب OpenAI من تحقيق اختراق كبير في تطوير الذكاء الاصطناعي العام.
بخلاف نماذج الذكاء الاصطناعي الحالية، التي تركز على توليد الاستجابات بناءً على المعلومات المتعلمة مسبقًا، فإن الذكاء الاصطناعي العام هو نظام مستقل يمكنه تطبيق "المنطق" على القرارات، مما يمنحه القدرة على حل المشكلات على المستوى البشري.
على الرغم من أن الذكاء الاصطناعي العام لم يتحقق بالكامل بعد، إلا أن العديد من الخبراء يعتقدون أن هذه التقنية سيكون لها أيضًا القدرة على التعلم التراكمي، وهي سمة أخرى تمكن البشر من تحسين قدراتهم.
تشير بعض المصادر إلى أن برنامج Q*، وهو مشروع تابع لشركة OpenAI، قد أظهر الخصائص المذكورة آنفًا عند حل المشكلات. علاوة على ذلك، وبفضل قدرته الحاسوبية الهائلة، تفوق Q* على طلاب المرحلة الابتدائية، مُظهِرًا مهارات استدلالية وقدرات معرفية تتجاوز بكثير تلك التي توفرها تقنيات الذكاء الاصطناعي الحالية.
من غير الواضح كم من الوقت استغرق تطوير Q* وما هي تطبيقاته المحتملة، لكن OpenAI أبلغت الموظفين وأعضاء مجلس الإدارة بالمشروع قبل حدوث الجدل المتعلق بالموظفين.
المخاوف الأخلاقية
بينما يبدي سام ألتمان، الرئيس التنفيذي لشركة OpenAI، ثقة بأن تقنية الذكاء الاصطناعي العام ستدفع عجلة الابتكار، سارع بعض الباحثين إلى الإشارة إلى المخاطر المحتملة للمشروع.
في رسالةٍ إلى مجلس الإدارة، حذّر الباحثون من الخطر المحتمل الذي تُشكّله هذه الخوارزمية القوية على البشرية. لم تُفصح الرسالة عن المخاوف الأخلاقية المحددة بشأن الذكاء الاصطناعي، إلا أن التحذيرات كانت كافية لتبرير قرار المجلس بفصل ألتمان.
في غضون ذلك، كان السبب الأولي الذي ذُكر لفصل ألتمان هو "ضعف مهارات التواصل" لديه. وبعد فترة وجيزة، وجد وظيفة جديدة في مايكروسوفت. دفع هذا الإجراء 700 موظف من أصل 770 في شركة OpenAI إلى التهديد بالمثل إذا لم يُعاد الرئيس التنفيذي إلى منصبه.
مع اقتراب الشركة من الانهيار، اضطر مجلس إدارة OpenAI إلى إعادة تعيين ألتمان في المنصب الأعلى - الأمر الذي أدى أيضًا إلى إصلاح شامل للفريق التنفيذي للشركة وأبرز الانقسامات العميقة داخل قيادتها.
والآن بعد عودة ألتمان إلى منصبه، ومن المرجح أن يحصل مشروع Q* على الضوء الأخضر مرة أخرى، فإن هذا يثير تساؤلات جديدة.
ما مدى واقعية مشروع Q*؟
على الرغم من أن الأوقات المضطربة في OpenAI قد سلطت الضوء على مفهوم الذكاء الاصطناعي العام، إلا أن هذه ليست المرة الأولى التي يذكر فيها ألتمان هذه التقنية.
في سبتمبر الماضي، وجد رائد الأعمال في وادي السيليكون نفسه في ورطة بعد أن قارن الذكاء الاصطناعي العام بـ "إنسان عادي يمكنك توظيفه كزميل عمل". ثم كرر تصريحات أدلى بها العام الماضي حول كيف يمكن لهذا الذكاء الاصطناعي أن "يفعل أي شيء يمكنك فعله مع زميل عمل عن بعد"، بما في ذلك تعلم أن تصبح طبيباً ومبرمجاً جيداً.
في حين أن مقارنة الذكاء الاصطناعي العام بذكاء "الإنسان العادي" ليست بالأمر الجديد، إلا أن استخدام ألتمان لهذه العبارة اعتبره علماء أخلاقيات الذكاء الاصطناعي وأستاذ جامعة كامبريدج هنري شيفلين "مقززاً"، وذلك مع تصاعد المخاوف المحيطة بتأثير الذكاء الاصطناعي على الأمن الوظيفي.
كما أن الاختراقات المحتملة في الذكاء الاصطناعي العام تدق ناقوس الخطر للباحثين الآخرين - بأن التكنولوجيا تتطور بشكل أسرع مما يستطيع الناس فهم تأثيرها بشكل كامل.
ترى شركة OpenAI أن النتائج الإيجابية للذكاء الاصطناعي العام تجعل هذا المجال المحفوف بالمخاطر جديرًا بالتجربة. ومع ذلك، ومع استمرار الشركة في المضي قدمًا في هذا الاتجاه، يخشى الكثيرون من أن ألتمان يُعطي الأولوية للنجاح التجاري على حساب مصلحة المستخدمين والمجتمع.
فونج آنه (المصدر: Tech.co، The Guardian)
مصدر






تعليق (0)