أصدر مختبر Tongyi التابع لشركة Alibaba يوم الثلاثاء (11 مارس) نموذج R1-Omni مفتوح المصدر، وهو أول نموذج لغوي متعدد الوسائط شامل يستخدم التعلم المعزز مع المكافآت القابلة للتحقق (RLVR)، وهي تقنية تعد بتحسين قدرة الذكاء الاصطناعي على التفكير وتحليل المشاعر.
أفاد الفريق أنهم استخدموا RLVR لتحسين نموذج HumanOmni 0.5B مفتوح المصدر، مما أدى إلى تحسين ثلاثة مقاييس رئيسية بشكل ملحوظ: الاستدلال، ودقة التعرف على المشاعر، والتعميم. ووفقًا للتقرير، يُمكن لـ R1-Omni فهم كيفية دعم المعلومات البصرية والسمعية للتعرف على المشاعر بشكل أفضل، وتحديد العوامل الأكثر أهمية في تقييم كل عاطفة بوضوح.
في مقاطع الفيديو التجريبية، تمكّن R1-Omni من تحديد الحالة العاطفية للشخص من خلال الفيديو، بالإضافة إلى وصف ملابس الشخصية ومحيطها. يُمثّل هذا تقدمًا كبيرًا في مجال الرؤية الحاسوبية.
أصبحت تقنية التعرف على المشاعر بالذكاء الاصطناعي اتجاهًا هامًا في صناعة التكنولوجيا. تُستخدم هذه التقنية غالبًا في التطبيقات العملية، مثل روبوتات الدردشة لخدمة العملاء أو أنظمة المراقبة التي ترصد علامات إرهاق السائق أثناء قيادة سيارات تسلا الكهربائية.
مع إطلاق نموذج R1-Omni، تُسرّع علي بابا سباق الذكاء الاصطناعي وتُنافس OpenAI في موقعها. في حين أطلقت OpenAI نظام GPT-4.5، الذي يُمكنه التعرّف على الإشارات الدقيقة في أسئلة المستخدم والاستجابة لها، بسعر يصل إلى 200 دولار أمريكي شهريًا، تُقدّم علي بابا R1-Omni مجانًا تمامًا على منصة Hugging Face.
على الرغم من أن R1-Omni لا يتعرف حاليًا إلا على المشاعر الأساسية مثل "السعادة" أو "الغضب"، وفقًا للرئيس التنفيذي لشركة علي بابا وو يونغ مينغ، فإن الذكاء الاصطناعي العام (AGI) هو الهدف الرئيسي للشركة، وأن تطوير الذكاء العاطفي للذكاء الاصطناعي هو خطوة مهمة إلى الأمام.
تعليق (0)