كلما كان النموذج أقوى، كلما كان "التفكير" أضعف؟
في تقرير نُشر حديثًا، قام باحثو Apple بتقييم أداء نماذج التفكير الكبيرة (LRMs) عند التعامل مع مشكلات منطقية ذات صعوبة متزايدة، مثل برج هانوي أو مشكلة عبور النهر .
وكانت النتائج صادمة: ففي مواجهة مشاكل شديدة التعقيد، لم تنخفض دقة نماذج الذكاء الاصطناعي المتقدمة فحسب، بل "انهارت تماما".
والأمر الأكثر إثارة للقلق هو أنه قبل انخفاض الأداء، تبدأ النماذج في... تقليل جهدها في التفكير، وهو سلوك يتعارض مع الحدس ويتطلب المزيد من التفكير عندما تكون المشكلة أكثر صعوبة.
في كثير من الحالات، حتى مع استخدام الخوارزمية الصحيحة، تفشل النماذج في إيجاد حل. وهذا يُظهر محدوديةً كبيرةً لقدرتها على التكيف وتطبيق القواعد في البيئات الجديدة.
تحدي "النظرية العامة"
وفي رد فعل على الدراسة، وصف الباحث الأمريكي غاري ماركوس، أحد الأصوات المشككة في القدرات الحقيقية للذكاء الاصطناعي، نتائج شركة أبل بأنها "مدمرة للغاية".
وكتب في نشرته الإخبارية الشخصية Substack: "أي شخص يعتقد أن نماذج اللغة الكبيرة (LLMs) هي طريق مباشر إلى الذكاء الاصطناعي العام يخدع نفسه".
ويتفق السيد أندرو روجوسكي، الخبير في معهد الذكاء الاصطناعي المرتكز على الإنسان (جامعة سري، المملكة المتحدة)، مع هذا الرأي، قائلاً إن هذا الاكتشاف يشير إلى احتمال دخول صناعة التكنولوجيا في "طريق مسدود": "عندما تعمل النماذج بشكل جيد فقط مع المشكلات البسيطة والمتوسطة، ولكنها تفشل تمامًا عندما تزداد الصعوبة، فمن الواضح أن هناك مشكلة في النهج الحالي".
كانت إحدى النقاط التي سلطت عليها شركة أبل الضوء هي الافتقار إلى "التفكير العام"، والذي يتمثل في القدرة على توسيع الفهم من موقف محدد إلى مواقف مماثلة.
عندما تعجز النماذج الحالية عن نقل المعرفة بالطريقة التي يتبعها البشر عادة، فإنها تكون عرضة للتعلم الحفظي: قوية في تكرار الأنماط، ولكنها ضعيفة في التفكير المنطقي أو الاستنتاجي.
في الواقع، وجدت الدراسة أن النماذج النظرية الكبيرة تهدر الموارد الحسابية من خلال حل المشكلات البسيطة بشكل صحيح بشكل متكرر، ولكنها تختار الحل الخاطئ منذ البداية للمشكلات الأكثر تعقيدًا قليلاً.
اختبر التقرير مجموعةً من النماذج الرائدة، بما في ذلك o3 من OpenAI، وGemini Thinking من Google، وClaude 3.7 Sonnet-Thinking، وDeepSeek-R1. في حين لم تستجب Anthropic وGoogle وDeepSeek لطلبات التعليق، رفضت OpenAI التعليق.
لا ينفي بحث آبل إنجازات الذكاء الاصطناعي في اللغة أو الرؤية أو البيانات الضخمة. لكنه يُسلّط الضوء على نقطة ضعف أُغفلت: القدرة على التفكير المنطقي، وهو جوهر تحقيق الذكاء الحقيقي.
المصدر: https://baovanhoa.vn/nhip-song-so/ai-suy-luan-kem-dan-khi-gap-bai-toan-phuc-tap-141602.html
تعليق (0)