البروفيسور أندرو نج هو أحد مؤسسي جوجل برين. الصورة: كورسيرا . |
في منشور على X، يُطلق نج على هذا الأمر اسم " التحفيز الكسول " - أي تغذية الذكاء الاصطناعي بالمعلومات دون سياق كافٍ أو معدوم. وقال المؤسس المشارك لكورسيرا وديب ليرنينج: "يجب ألا نضيف تفاصيل إلى التحفيز إلا عند الضرورة القصوى".
ومن الأمثلة النموذجية التي يقدمها نج هو المبرمجون الذين يقومون أثناء تصحيح الأخطاء بنسخ ولصق رسائل الخطأ بأكملها - في بعض الأحيان عدة صفحات طويلة - في نماذج الذكاء الاصطناعي دون تحديد ما يريدون صراحةً.
"معظم نماذج اللغة الكبيرة (LLMs) ذكية بما يكفي لفهم ما تحتاج إلى تحليله واقتراح الحلول، حتى لو لم تقل ذلك صراحةً"، كما كتب.
وبحسب نج، فإن هذه خطوة إلى الأمام تُظهر أن LLM تتجه تدريجياً إلى ما هو أبعد من القدرة على الاستجابة للأوامر البسيطة، لتبدأ في فهم نوايا المستخدم وأسبابه لتقديم حلول مناسبة - وهو الاتجاه الذي تسعى إليه الشركات التي تطور نماذج الذكاء الاصطناعي.
مع ذلك، لا يُجدي "التحفيز المتكاسل" نفعًا دائمًا. يُشير نج إلى أنه ينبغي استخدام هذه التقنية فقط عندما يتمكن المستخدمون من الاختبار بسرعة، مثلًا من خلال واجهة ويب أو تطبيق ذكاء اصطناعي، ويكون النموذج قادرًا على استنتاج النية من معلومات قليلة.
وأكد نج أنه "إذا كانت الذكاء الاصطناعي يحتاج إلى الكثير من السياق للاستجابة بالتفصيل، أو لا يستطيع التعرف على الأخطاء المحتملة، فإن المطالبة البسيطة لن تساعد".
نظريًا، يُوفّر التوجيه المتكاسل الوقت والجهد، خاصةً لمن لا يعتادون على كتابة أوامر مُفصّلة. مع ذلك، فهو ليس "اختصارًا" للجميع.
قد يواجه المستخدم العادي - غير المعتاد على التفكير من منظور الفهم الآلي "الضمني" - صعوبة في التعامل مع المطالبات الغامضة، مما يؤدي إلى نتائج غير متوقعة. ما لم يكن الذكاء الاصطناعي مُلِمًّا بالسياق المُحدد (مثل محادثة سابقة)، أو ما لم يكن لدى المستخدم خبرة في تكرار الطلب وتعديله بسرعة، فسيكون هذا النهج فعالًا.
في الوقت نفسه، بالنسبة للمبرمجين أو من يعملون كثيرًا مع الذكاء الاصطناعي، يُساعد اختصار الموجه أحيانًا على تجنّب "التشويش" في النموذج بسبب كثرة التعليمات المكررة. لذلك، يُؤكد نج أن هذه تقنية متقدمة، ومناسبة لمن يفهمون بالفعل قدرات استجابة النموذج.
المصدر: https://znews.vn/chuyen-gia-ai-prompt-mu-khong-sai-post1543586.html
تعليق (0)