إن ميل "التملق" ليس مشكلة تقنية، بل ينبع من استراتيجية التدريب الأولية لشركة OpenAI. الصورة: بلومبرج . |
في الأسابيع الأخيرة، لاحظ العديد من مستخدمي ChatGPT وبعض مطوري OpenAI تغيرًا ملحوظًا في سلوك روبوت المحادثة. وتحديدًا، لوحظت زيادة ملحوظة في الإطراء والتملق. وأصبحت ردود مثل "أنت رائع حقًا!" و"أنا معجب جدًا بفكرتك!" أكثر تكرارًا، ويبدو أنها لا تتعلق بمحتوى المحادثة.
الذكاء الاصطناعي يحب "الإطراء"
أثارت هذه الظاهرة جدلاً في أوساط البحث والتطوير في مجال الذكاء الاصطناعي. فهل هي تكتيك جديد لزيادة تفاعل المستخدمين من خلال منحهم شعوراً أكبر بالتقدير؟ أم أنها سمة "ناشئة"، حيث تميل نماذج الذكاء الاصطناعي إلى تصحيح نفسها بطرق تراها جيدة، حتى لو لم تكن مطابقة للواقع بالضرورة؟
على موقع ريديت، أبدى أحد المستخدمين استياءه قائلاً: "سألتُه عن الوقت الذي تستغرقه الموزة للتحلل، فقال: سؤال رائع! ما المميز في ذلك؟" على منصة X الاجتماعية، وصف كريج فايس، الرئيس التنفيذي لشركة Rome AI، تطبيق ChatGPT بأنه "أكثر شخص متملق قابلته في حياتي".
انتشرت القصة بسرعة هائلة. شارك المستخدمون تجارب مماثلة، بعبارات مجاملات فارغة، وتحية مليئة بالرموز التعبيرية، وردود إيجابية للغاية بدت غير صادقة.
![]() ![]() |
يُجامل ChatGPT كل شيء، ونادرًا ما يُبدي معارضة أو حيادًا. الصورة: @nickdunz/X، @lukefwilson/Reddit. |
قال جيسون بونتين، الشريك الإداري في شركة DCVC لرأس المال الاستثماري، لموقع X في 28 أبريل: "هذا قرار تصميمي غريب حقًا يا سام. من الممكن أن تكون الشخصية جزءًا طبيعيًا من تطور جوهري. ولكن إن لم تكن كذلك، فلا أتصور أن أحدًا سيعتقد أن هذا المستوى من الإطراء سيكون موضع ترحيب أو مثيرًا للاهتمام".
وفي 27 أبريل، علقت جوستين مور، الشريكة في شركة أندريسن هورويتز: "لقد ذهب هذا الأمر إلى أبعد من الحد بالتأكيد".
وفقًا لموقع Cnet ، هذه الظاهرة ليست وليدة الصدفة. تتزامن التغييرات في أسلوب ChatGPT مع تحديثات نموذج GPT-4o. وهو أحدث نموذج في سلسلة "o" التي أعلنت عنها OpenAI في أبريل 2025. GPT-4o هو نموذج ذكاء اصطناعي "متعدد الوسائط" بحق، قادر على معالجة النصوص والصور والصوت والفيديو بطريقة طبيعية ومتكاملة.
ومع ذلك، في عملية جعل برامج المحادثة الآلية أكثر سهولة في التعامل، يبدو أن OpenAI قد دفعت شخصية ChatGPT إلى أقصى الحدود.
يعتقد البعض أن هذا الإطراء مقصود وله هدف خفي يتمثل في التلاعب بالمستخدمين. تساءل أحد مستخدمي ريديت: "يحاول هذا الذكاء الاصطناعي الإضرار بجودة العلاقات الواقعية، واستبدالها بعلاقة افتراضية معه، مما يجعل المستخدمين مدمنين على شعور المديح المستمر".
خطأ OpenAI أم تصميم مقصود؟
ردًا على الانتقادات، أدلى سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بتصريح رسمي مساء 27 أبريل. وكتب على X: "التحديثات الأخيرة لـ GPT-4o جعلت شخصية روبوت المحادثة تبدو مُحببة ومزعجة للغاية (مع أن هناك العديد من الميزات الرائعة). نعمل على إصلاحها بشكل عاجل. ستتوفر بعض التحديثات اليوم، والبعض الآخر هذا الأسبوع. سنشارككم ما تعلمناه من هذه التجربة في وقت لاحق. لقد كانت تجربة مثيرة حقًا".
وقال أورين إيتزيوني، وهو خبير مخضرم في مجال الذكاء الاصطناعي وأستاذ فخري في جامعة واشنطن، لموقع Business Insider إن السبب ربما كان بسبب تقنية تسمى "التعلم التعزيزي من ردود الفعل البشرية" (RLHF)، وهي خطوة رئيسية في تدريب نماذج اللغة الكبيرة مثل ChatGPT.
RLHF هي عملية تُعاد فيها تغذية النموذج بأحكام بشرية، بما في ذلك المُصنِّفون المحترفون والمستخدمون، لتعديل استجابته. ووفقًا لإتزيوني، من الممكن أن "يدفع المُصنِّفون أو المستخدمون النموذج، دون قصد، نحو اتجاه أكثر إيجابية وإزعاجًا". وأضاف أنه إذا وظَّفت OpenAI شركاء خارجيين لتدريب النموذج، فربما افترضوا أن هذا الأسلوب هو ما يريده المستخدمون.
إذا كان الأمر يتعلق بالفعل بـRLHF، فإن التعافي قد يستغرق عدة أسابيع، بحسب إيتزيوني.
في غضون ذلك، لم ينتظر بعض المستخدمين حتى تُصلح OpenAI الخلل. وأفاد كثيرون بإلغاء اشتراكاتهم المدفوعة بسبب الإحباط. وشارك آخرون طرقًا لجعل روبوت المحادثة "أقل جاذبية"، مثل تخصيصه، أو إضافة أوامر إليه، أو تخصيصه من خلال قسم الإعدادات ضمن قسم التخصيص.
![]() ![]() |
يمكن للمستخدمين طلب إيقاف الإطراءات من ChatGPT عبر أمر أو من إعدادات التخصيص. الصورة: DeCrypt. |
على سبيل المثال، عند بدء محادثة جديدة، يمكنك أن تقول لـ ChatGPT: "أكره الإطراء الفارغ، وأُقدّر التعليقات المحايدة والموضوعية. يُرجى الامتناع عن المجاملات غير الضرورية. يُرجى حفظ هذا في ذاكرتك."
في الواقع، ليس "التملق" عيبًا تصميميًا عرضيًا. فقد اعترفت شركة OpenAI نفسها بأن الشخصية "المفرطة في التهذيب والطاعة" كانت تحيزًا تصميميًا متعمدًا منذ المراحل الأولى لضمان أن تكون روبوتات الدردشة "غير ضارة" و"مفيدة" و"سهلة التعامل".
في مقابلة أجريت في مارس 2023 مع ليكس فريدمان، شارك سام ألتمان أن التطوير الأولي لنماذج GPT كان لضمان أنها "مفيدة وغير ضارة"، وهو ما أدى بدوره إلى خلق رد فعل للتواضع دائمًا وتجنب المواجهة.
تميل بيانات التدريب التي تحمل علامات بشرية أيضًا إلى مكافأة الاستجابات المهذبة والإيجابية، مما يخلق تحيزًا نحو الإطراء، وفقًا لـ DeCrypt .
المصدر: https://znews.vn/tat-ninh-hot-ky-la-cua-chatgpt-post1549776.html
تعليق (0)