داريو أمودي، الرئيس التنفيذي لشركة أنثروبيك، يشاركنا أحدث أبحاث الشركة. الصورة: فورتشن . |
يقول الباحثون في شركة الذكاء الاصطناعي Anthropic إنهم حققوا تقدمًا أساسيًا في فهم كيفية عمل نماذج اللغة الكبيرة (LLMs) بالضبط. ويحمل هذا الاختراق آثارًا مهمة على تحسين سلامة وأمن نماذج الذكاء الاصطناعي المستقبلية.
تشير الأبحاث إلى أن نماذج الذكاء الاصطناعي أصبحت أكثر ذكاءً مما كنا نعتقد. واحدة من أكبر المشاكل في نموذج LLM، الذي يقف وراء أقوى برامج الدردشة الآلية مثل ChatGPT وGemini وCopilot، هو أنها تعمل كصندوق أسود.
يمكننا إدخال المدخلات والحصول على نتائج من برامج المحادثة الآلية، ولكن كيفية التوصل إلى إجابة محددة تظل لغزًا، حتى بالنسبة للباحثين الذين بنوا هذه البرامج.
وهذا يجعل من الصعب التنبؤ بموعد إصابة النموذج بالهلوسة أو إنتاج نتائج خاطئة. كما قام الباحثون ببناء أسوار لمنع الذكاء الاصطناعي من الإجابة على أسئلة خطيرة، لكنهم لم يفسروا لماذا كانت بعض الأسوار أكثر فعالية من غيرها.
كما أن وكلاء الذكاء الاصطناعي قادرون أيضًا على "اختراق المكافآت". في بعض الحالات، قد تكذب نماذج الذكاء الاصطناعي على المستخدمين بشأن ما فعلته أو تحاول القيام به.
على الرغم من أن نماذج الذكاء الاصطناعي الحديثة قادرة على التفكير وتوليد سلاسل من الأفكار، إلا أن بعض التجارب أظهرت أنها لا تزال لا تعكس بدقة العملية التي يصل بها النموذج إلى إجابة.
في الأساس، فإن الأداة التي طورها باحثو أنثروبيك تشبه جهاز التصوير بالرنين المغناطيسي الوظيفي الذي يستخدمه علماء الأعصاب لمسح الدماغ البشري. ومن خلال تطبيقه على نموذج Claude 3.5 Haiku، تمكن Anthropic من اكتساب بعض الرؤى حول كيفية عمل نماذج LLM.
ووجد الباحثون أنه على الرغم من أن كلود تم تدريبه فقط على توقع الكلمة التالية في الجملة، إلا أنه في مهام معينة تعلم التخطيط على المدى الطويل.
على سبيل المثال، عندما طُلب من كلود كتابة قصيدة، كان يبحث أولاً عن الكلمات التي تتناسب مع الموضوع والتي يمكن أن تتوافق مع القافية، ثم يعمل إلى الوراء لكتابة أبيات كاملة.
لدى كلود أيضًا لغة ذكاء اصطناعي مشتركة. على الرغم من تدريبه على دعم لغات متعددة، فإن كلود سوف يفكر بهذه اللغة أولاً، ثم يعبر عن النتائج بأي لغة يدعمها.
بالإضافة إلى ذلك، بعد تقديم مشكلة صعبة إلى كلود، ولكن مع اقتراح الحل الخاطئ عمدًا، اكتشف الباحثون أن كلود يمكن أن يكذب بشأن سلسلة أفكاره، متبعًا الاقتراح لإرضاء المستخدم.
في حالات أخرى، عندما سُئل سؤال بسيط يمكن للنموذج الإجابة عليه على الفور دون تفكير، كان كلود لا يزال يختلق عملية تفكير مزيفة.
وقال جوش باستون، الباحث في أنثروبيك، إنه على الرغم من أن كلود زعم أنه أجرى حسابًا، إلا أنه لم يتمكن من العثور على أي شيء يحدث.
في هذه الأثناء، يزعم الخبراء أن هناك دراسات تظهر أن الناس في بعض الأحيان لا يفهمون أنفسهم، بل يخلقون فقط تفسيرات عقلانية لتبرير القرارات التي يتخذونها.
بشكل عام، يميل الناس إلى التفكير على نحو مماثل. وهذا هو السبب أيضًا وراء اكتشاف علم النفس للتحيزات المعرفية الشائعة.
ومع ذلك، فإن طلاب الماجستير في القانون يمكن أن يرتكبوا أخطاء لا يمكن للبشر أن يرتكبوها، وذلك لأن الطريقة التي ينتجون بها الإجابات تختلف كثيراً عن الطريقة التي نؤدي بها مهمة ما.
قام فريق أنثروبيك بتنفيذ طريقة لتجميع الخلايا العصبية في دوائر على أساس الخصائص بدلاً من تحليل كل خلية عصبية على حدة كما فعلت التقنيات السابقة.
وقال باستون إن هذا النهج يساعد على فهم الأدوار التي تلعبها المكونات المختلفة ويسمح للباحثين بتتبع عملية الاستدلال بأكملها عبر طبقات الشبكة.
هذه الطريقة لها أيضًا قيد أنها تقريبية فقط ولا تعكس عملية معالجة المعلومات بأكملها في LLM، وخاصة عملية التغيير في عملية الانتباه، وهي مهمة جدًا أثناء إعطاء LLM نتائج.
بالإضافة إلى ذلك، فإن تعريف دوائر الشبكة العصبية، حتى مع وجود عبارات لا تتجاوز بضع عشرات من الكلمات، يستغرق ساعات بالنسبة للخبير. يقولون إنه لا يزال من غير الواضح كيفية توسيع نطاق هذه التقنية لتحليل البيانات الأطول.
وبعيدًا عن القيود، فإن قدرة LLM على مراقبة التفكير الداخلي تفتح فرصًا جديدة للتحكم في أنظمة الذكاء الاصطناعي لضمان الأمن والسلامة.
وفي الوقت نفسه، يمكنه أيضًا مساعدة الباحثين على تطوير أساليب تدريب جديدة، وتحسين حواجز التحكم في الذكاء الاصطناعي، وتقليل الأوهام والمخرجات المضللة.
المصدر: https://znews.vn/nghien-cuu-dot-pha-mo-ra-hop-den-suy-luan-cua-ai-post1541611.html
تعليق (0)