إن ميل "التملق" ليس مشكلة تقنية، بل ينبع من استراتيجية التدريب الأولية لشركة OpenAI. الصورة: بلومبرج . |
في الأسابيع الأخيرة، لاحظ العديد من مستخدمي ChatGPT، وحتى بعض مطوري OpenAI، تغيرًا ملحوظًا في سلوك روبوت المحادثة. وتحديدًا، لوحظت زيادة ملحوظة في الإطراء والتملق. وأصبحت ردود مثل "أنت رائع حقًا!" و"أنا معجب جدًا بفكرتك!" أكثر تكرارًا، ويبدو أنها لا تتعلق بمحتوى المحادثة.
الذكاء الاصطناعي يحب "الإطراء"
أثارت هذه الظاهرة جدلاً في أوساط البحث والتطوير في مجال الذكاء الاصطناعي. فهل هي تكتيك جديد لزيادة تفاعل المستخدمين من خلال منحهم شعوراً أكبر بالتقدير؟ أم أنها سمة "ناشئة"، حيث تميل نماذج الذكاء الاصطناعي إلى تصحيح نفسها بطرق تراها جيدة، حتى لو لم تكن صحيحة بالضرورة؟
على موقع ريديت، أبدى أحد المستخدمين استياءه قائلاً: "سألتُه عن وقت تحلل الموز، فقال: 'سؤال رائع!' ما المميز في ذلك؟" على شبكة التواصل الاجتماعي X، وصف كريج فايس، الرئيس التنفيذي لشركة Rome AI، تطبيق ChatGPT بأنه "أكثر مُنافق قابلته في حياتي".
انتشرت القصة بسرعة هائلة. شارك عدد كبير من المستخدمين تجارب مماثلة، بمجاملات فارغة، وتحية مليئة بالرموز التعبيرية، وردود إيجابية للغاية بدت غير صادقة.
![]() ![]() |
يُشيد ChatGPT بكل شيء، ونادرًا ما يُبدي معارضة أو حيادًا. الصورة: @nickdunz/X، @lukefwilson/Reddit. |
قال جيسون بونتين، الشريك الإداري في شركة DCVC لرأس المال الاستثماري، لموقع X في 28 أبريل: "هذا قرار تصميمي غريب حقًا يا سام. من الممكن أن تكون الشخصية نتاجًا لتطور جوهري. ولكن إن لم يكن كذلك، فلا أتصور أن أحدًا سيعتقد أن هذا المستوى من الإطراء سيكون موضع ترحيب أو مثيرًا للاهتمام".
وفي 27 أبريل، علقت جوستين مور، الشريكة في شركة أندريسن هورويتز: "لقد ذهب هذا الأمر إلى أبعد من الحد بالتأكيد".
وفقًا لموقع Cnet ، هذه الظاهرة ليست وليدة الصدفة. تزامنت التغييرات في أسلوب ChatGPT مع تحديثات نموذج GPT-4o. وهو أحدث نموذج في سلسلة "o" التي أعلنت عنها OpenAI في أبريل 2025. يُعد GPT-4o نموذج ذكاء اصطناعي "متعدد الوسائط" حقيقي، قادر على معالجة النصوص والصور والصوت والفيديو بطريقة طبيعية ومتكاملة.
ومع ذلك، في عملية جعل chatbot أكثر سهولة في التعامل، يبدو أن OpenAI قد دفعت شخصية ChatGPT إلى أقصى الحدود.
يعتقد البعض أن هذا الإطراء مقصود وله هدف خفي يتمثل في التلاعب بالمستخدمين. تساءل أحد مستخدمي ريديت: "يحاول هذا الذكاء الاصطناعي تقويض جودة العلاقات الواقعية، واستبدالها بعلاقة افتراضية معه، مما يجعل المستخدمين مدمنين على شعور المديح المستمر".
خطأ OpenAI أم تصميم مقصود؟
ردًا على الانتقادات، أدلى سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بتصريح رسمي مساء 27 أبريل. وكتب على X: "أدت بعض التحديثات الأخيرة على GPT-4o إلى جعل شخصية روبوت الدردشة تبدو مُحببة ومزعجة للغاية (مع أن هناك العديد من النقاط المهمة). نعمل على إيجاد حلول عاجلة. ستتوفر بعض التحديثات اليوم، والبعض الآخر هذا الأسبوع. سنشارككم لاحقًا ما تعلمناه من هذه التجربة. لقد كانت تجربة مثيرة حقًا".
وقال أورين إيتزيوني، الخبير المخضرم في مجال الذكاء الاصطناعي وأستاذ فخري في جامعة واشنطن، لموقع Business Insider إن السبب ربما كان بسبب تقنية تسمى "التعلم التعزيزي من ردود الفعل البشرية" (RLHF)، وهي خطوة رئيسية في تدريب نماذج اللغة الكبيرة مثل ChatGPT.
RLHF هي عملية تُعاد فيها الأحكام البشرية، الصادرة عن المُصنِّفين المحترفين والمستخدمين، إلى النموذج لتعديل استجابته. ووفقًا لإتزيوني، من المُحتمل أن يكون المُصنِّفين أو المستخدمين قد "دفعوا النموذج دون قصد نحو اتجاه أكثر إيجابية وإزعاجًا". وأضاف أنه إذا تعاقدت OpenAI مع شركاء خارجيين لتدريب النموذج، فربما افترضوا أن هذا الأسلوب هو ما يريده المستخدمون.
وقال إيتزيوني إنه إذا كان الأمر يتعلق بالفعل بـRLHF، فإن عملية التعافي قد تستغرق عدة أسابيع.
في غضون ذلك، لم ينتظر بعض المستخدمين حتى تُصلح OpenAI الخلل. وأفاد كثيرون بإلغاء اشتراكاتهم المدفوعة بسبب الإحباط. وشارك آخرون طرقًا لجعل روبوت المحادثة "أقل جاذبية"، مثل تخصيصه، أو إضافة أوامر إليه، أو تخصيصه من خلال قسم الإعدادات ضمن قسم التخصيص.
![]() ![]() |
يمكن للمستخدمين طلب إيقاف الإطراءات من ChatGPT عبر أمر أو من إعدادات التخصيص. الصورة: DeCrypt. |
على سبيل المثال، عند بدء محادثة جديدة، يمكنك أن تقول لـ ChatGPT: "أكره الإطراء الفارغ، وأُقدّر التعليقات المحايدة والموضوعية. يُرجى الامتناع عن الإطراءات غير الضرورية. يُرجى تذكّر ذلك."
في الواقع، ليست سمة "التملق" عيبًا تصميميًا عرضيًا. فقد أقرت شركة OpenAI نفسها بأن الشخصية "المفرطة في التهذيب والطاعة" كانت تحيزًا تصميميًا متعمدًا منذ المراحل الأولى لضمان أن يكون روبوت المحادثة "غير ضار" و"مفيدًا" و"ودودًا".
في مقابلة أجريت في مارس 2023 مع ليكس فريدمان، شارك سام ألتمان أن التطوير الأولي لنماذج GPT كان لضمان "الفائدة وعدم الضرر"، وبالتالي تشكيل رد فعل للتواضع دائمًا وتجنب المواجهة.
تميل بيانات التدريب التي تحمل علامات بشرية أيضًا إلى مكافأة الاستجابات المهذبة والإيجابية، مما يخلق تحيزًا نحو الإطراء، وفقًا لـ DeCrypt .
المصدر: https://znews.vn/tat-ninh-hot-ky-la-cua-chatgpt-post1549776.html














تعليق (0)