داريو أمودي، الرئيس التنفيذي لشركة أنثروبيك، يشاركنا أحدث أبحاث الشركة. الصورة: فورتشن . |
يقول الباحثون في شركة الذكاء الاصطناعي Anthropic إنهم حققوا تقدمًا أساسيًا في فهم كيفية عمل نماذج اللغة الكبيرة (LLMs) بالضبط، وهو الاختراق الذي يمكن أن يكون له آثار مهمة على تحسين سلامة وأمان نماذج الذكاء الاصطناعي المستقبلية.
تُظهر الأبحاث أن نماذج الذكاء الاصطناعي أذكى مما كنا نعتقد. إحدى أكبر مشاكل نماذج LLM، التي تُشكّل أساس أقوى برامج الدردشة الآلية مثل ChatGPT وGemini وCopilot، هي أنها تعمل كصندوق أسود.
يمكننا إدخال المدخلات والحصول على نتائج من برامج المحادثة الروبوتية، ولكن كيفية التوصل إلى إجابة محددة تظل لغزًا، حتى بالنسبة للباحثين الذين بنوا هذه البرامج.
هذا يُصعّب التنبؤ بموعد هلوسة النموذج أو تقديمه لنتائج خاطئة. كما بنى الباحثون حواجز لمنع الذكاء الاصطناعي من الإجابة على أسئلة خطيرة، لكنهم لا يُفسّرون سبب كون بعض الحواجز أكثر فعالية من غيرها.
وكلاء الذكاء الاصطناعي قادرون أيضًا على "اختراق المكافآت". في بعض الحالات، قد تكذب نماذج الذكاء الاصطناعي على المستخدمين بشأن ما فعلته أو تحاول فعله.
على الرغم من أن نماذج الذكاء الاصطناعي الحديثة قادرة على التفكير وتوليد سلاسل من الأفكار، إلا أن بعض التجارب أظهرت أنها لا تزال لا تعكس بدقة العملية التي يصل بها النموذج إلى إجابة.
في جوهرها، تُشبه الأداة التي طورها باحثو أنثروبيك جهاز التصوير بالرنين المغناطيسي الوظيفي الذي يستخدمه علماء الأعصاب لمسح الدماغ البشري. بتطبيقها على نموذج كلود 3.5 هايكو، تمكنت أنثروبيك من اكتساب فهم أعمق لكيفية عمل نماذج ماجستير الحقوق.
ووجد الباحثون أنه على الرغم من أن كلود تم تدريبه فقط على توقع الكلمة التالية في الجملة، إلا أنه في بعض المهام تعلم التخطيط على المدى الطويل.
على سبيل المثال، عندما طُلب من كلود كتابة قصيدة، كان يبحث أولاً عن الكلمات التي تتناسب مع الموضوع والتي يمكن أن تتوافق مع القافية، ثم يعمل إلى الوراء لكتابة أبيات كاملة.
يستخدم كلود أيضًا لغة ذكاء اصطناعي مشتركة. ورغم تدريبه على دعم لغات متعددة، سيفكر كلود بهذه اللغة أولًا، ثم يُعبّر عن نتائجه بأي لغة يدعمها.
بالإضافة إلى ذلك، بعد تقديم مشكلة صعبة لكلاود، ولكن مع اقتراح الحل الخاطئ عمدًا، اكتشف الباحثون أن كلود يمكن أن يكذب بشأن سلسلة أفكاره، متبعًا الاقتراح لإرضاء المستخدم.
في حالات أخرى، عندما سُئل سؤال بسيط يمكن للنموذج الإجابة عليه على الفور دون تفكير، كان كلود لا يزال يختلق عملية تفكير مزيفة.
وقال جوش باستون، الباحث في أنثروبيك، إنه على الرغم من أن كلود زعم أنه أجرى عملية حسابية، إلا أنه لم يتمكن من العثور على أي شيء يحدث.
في هذه الأثناء، يزعم الخبراء أن هناك دراسات تظهر أن الناس في بعض الأحيان لا يفهمون أنفسهم، بل يخلقون فقط تفسيرات عقلانية لتبرير القرارات التي يتخذونها.
يميل الناس عمومًا إلى التفكير بطرق متشابهة. ولهذا السبب اكتشف علماء النفس انحيازات معرفية مشتركة.
ومع ذلك، فإن طلاب الماجستير في القانون يمكن أن يرتكبوا أخطاء لا يمكن للبشر أن يرتكبوها، وذلك لأن الطريقة التي ينتجون بها الإجابات تختلف كثيراً عن الطريقة التي نؤدي بها مهمة ما.
قام فريق أنثروبيك بتنفيذ طريقة لتجميع الخلايا العصبية في دوائر على أساس الميزات بدلاً من تحليل كل خلية عصبية على حدة كما في التقنيات السابقة.
وأوضح السيد باستون أن هذا النهج يساعد على فهم الأدوار التي تلعبها المكونات المختلفة ويسمح للباحثين بتتبع عملية الاستدلال بأكملها عبر طبقات الشبكة.
هذه الطريقة لها أيضًا قيد أنها تقريبية فقط ولا تعكس معالجة المعلومات بأكملها في LLM، وخاصة التغيير في عملية الانتباه، وهو أمر مهم جدًا أثناء إعطاء LLM نتائج.
بالإضافة إلى ذلك، فإن تحديد دوائر الشبكة العصبية، حتى لجمل لا تتجاوز بضع عشرات من الكلمات، يتطلب ساعات من العمل الشاق. ويقولون إنه لم يتضح بعد كيفية توسيع نطاق هذه التقنية لتحليل الجمل الأطول.
وبغض النظر عن القيود، فإن قدرة LLM على مراقبة عملية التفكير الداخلي تفتح فرصًا جديدة للتحكم في أنظمة الذكاء الاصطناعي لضمان الأمن والسلامة.
وفي الوقت نفسه، يمكنه أيضًا مساعدة الباحثين على تطوير أساليب تدريب جديدة، وتحسين حواجز التحكم في الذكاء الاصطناعي، وتقليل الأوهام والمخرجات المضللة.
المصدر: https://znews.vn/nghien-cuu-dot-pha-mo-ra-hop-den-suy-luan-cua-ai-post1541611.html






تعليق (0)