
حققت برامج الذكاء الاصطناعي العديد من الإنجازات في السنوات الأخيرة - الصورة: رويترز
لا يمكننا مراقبة العملية بأكملها من إدخال البيانات إلى إخراج نماذج اللغة الكبيرة (LLMs).
لتسهيل الفهم، استخدم العلماء مصطلحات شائعة مثل "الاستدلال" لوصف كيفية عمل هذه البرامج. ويقولون أيضاً إن هذه البرامج قادرة على "التفكير" و"الاستدلال" و"الفهم" بنفس الطريقة التي يفعلها البشر.
المبالغة في قدرات الذكاء الاصطناعي.
على مدى العامين الماضيين، استخدم العديد من المديرين التنفيذيين في مجال الذكاء الاصطناعي لغة مبالغ فيها لتضخيم الإنجازات التقنية البسيطة، وفقًا لموقع ZDNET في 6 سبتمبر.
في سبتمبر 2024، أعلنت OpenAI أن نموذج الاستدلال o1 الخاص بها "يستخدم سلسلة من الاستدلال عند حل المشكلات، على غرار الطريقة التي يفكر بها البشر لفترة طويلة عند مواجهة أسئلة صعبة".
لكن علماء الذكاء الاصطناعي يخالفون هذا الرأي، إذ يجادلون بأن الذكاء الاصطناعي لا يمتلك ذكاءً شبيهاً بالذكاء البشري.
أجرت دراسة استندت إلى قاعدة بيانات arXiv من قبل فريق من المؤلفين في جامعة ولاية أريزونا (الولايات المتحدة الأمريكية) اختبارًا لقدرة الذكاء الاصطناعي على الاستدلال من خلال تجربة بسيطة.
تشير النتائج إلى أن "الإشارة من خلال تسلسل الأفكار هي وهم هش"، وليست آلية منطقية حقيقية، بل مجرد شكل متطور من أشكال مطابقة الأنماط.
يسمح مصطلح "CoT" (سلسلة التفكير المشترك) للذكاء الاصطناعي ليس فقط بتقديم إجابة نهائية ولكن أيضًا بتقديم كل خطوة من خطوات التفكير المنطقي، كما هو الحال في نماذج مثل GPT-o1 أو DeepSeek V1.

رسم توضيحي لنموذج اللغة GPT-2 من OpenAI - الصورة: ECHOCRAFTAI
تعرف على ما يفعله الذكاء الاصطناعي بالفعل.
وذكر فريق البحث أن التحليلات واسعة النطاق أظهرت أن نموذج LLM يميل إلى الاعتماد بشكل أكبر على الدلالات والقرائن السطحية بدلاً من عمليات التفكير المنطقي.
وأوضح الفريق: "تقوم نماذج التعلم المنطقي ببناء تسلسلات منطقية سطحية بناءً على ارتباطات المدخلات المتعلمة، وغالبًا ما تفشل في المهام التي تنحرف عن أساليب التفكير التقليدية أو الأنماط المألوفة".
لاختبار الفرضية القائلة بأن نموذج LLM يقوم فقط بمطابقة الأنماط وليس الاستدلال الفعلي، قام فريق البحث بتدريب GPT-2، وهو نموذج مفتوح المصدر من OpenAI تم إطلاقه في عام 2019.
تم تدريب النموذج في البداية على مهام بسيطة للغاية تتضمن الأحرف الإنجليزية الـ 26، مثل إعادة ترتيب بعض الأحرف، على سبيل المثال، تغيير كلمة "APPLE" إلى "EAPPL". ثم قام الفريق بتغيير المهمة وطلب من GPT-2 معالجتها.
أظهرت النتائج أنه بالنسبة للمهام غير المدرجة في بيانات التدريب، لم يتمكن GPT-2 من حلها بدقة باستخدام CoT.
بدلاً من ذلك، يحاول النموذج تطبيق المهام المُتعلمة بأقرب صورة ممكنة. لذلك، قد يبدو "استدلاله" منطقياً، لكن النتائج غالباً ما تكون خاطئة.
وخلصت المجموعة إلى أنه لا ينبغي الاعتماد بشكل كبير على إجابات الحاصلين على درجة الماجستير في القانون أو الثقة بها بشكل أعمى، لأنها قد تنتج "تصريحات لا معنى لها ولكنها مقنعة للغاية".
كما أكدوا على ضرورة فهم الطبيعة الحقيقية للذكاء الاصطناعي، وتجنب المبالغة، والتوقف عن الترويج لفكرة أن الذكاء الاصطناعي لديه قدرات تفكير شبيهة بالبشر.
المصدر: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm






تعليق (0)