لا تزال تقنية الذكاء الاصطناعي الجديدة من DeepSeek تُثير ضجة في عالم التكنولوجيا بفضل أدائها المتميز. الصورة: SCMP . |
أعلنت شركة DeepSeek رسميًا عن إطلاق DeepSeek V3-0324، وهو أحدث إصدار في عائلة V3 من لغات النمذجة واسعة النطاق (LLMs).
وكما هو الحال مع الإصدارات السابقة، يتم إصدار هذا النموذج مجانًا وبمفتوح المصدر من خلال منصة Hugging Face، مع تحسينات كبيرة مقارنة بالإصدارات السابقة، لا سيما في مجالات التفكير والبرمجة.
على وجه التحديد، وفقًا لـ OpenRouter، تم بناء DeepSeek V3-0324 باستخدام Mixture of Experts (MoE)، وهي طريقة تعلم آلي شائعة جدًا في بعض نماذج الذكاء الاصطناعي الصينية، وتحتوي على 685 مليار معلمة.
بحسب المراجعات الأولية، يُظهر هذا النموذج أداءً مذهلاً في مختلف المهام. وفي الوقت نفسه، يُشير منشور على موقع Reddit إلى أن DeepSeek V3-0324 قد تفوق على نموذج Sonnet 3.7 من جوجل في اختبار توليد الشفرة.
تشير المصادر أيضًا إلى أن برنامج DeepSeek V3-0324 قادر على توليد مقاطع برمجية طويلة دون أخطاء. وقد اختبر موقع Vidhya المتخصص في تحليلات الذكاء الاصطناعي هذا النموذج، ولاحظ قدرته على توليد 700 سطر من التعليمات البرمجية بسلاسة.
على منصة X، حقق تطبيق DeepSeek V3-0324 نجاحًا باهرًا. ولإثبات ذلك، نشر المستخدم ديبانشو شارما مقطع فيديو يُظهر قدرة هذا النموذج الذكي على إنشاء موقع ويب كامل بسلاسة باستخدام أكثر من 800 سطر برمجي.
أصبحت شركة DeepSeek الشركة الصينية الأكثر شهرة في مجال الذكاء الاصطناعي في ديسمبر 2024 عندما أطلقت DeepSeek-V3. حقق هذا النموذج أداءً مماثلاً لـ GPT-40 ولكنه استخدم جزءًا صغيرًا فقط من موارد الحوسبة.
بعد ذلك بوقت قصير، أطلقت شركة DeepSeek نموذجها الاستدلالي DeepSeek-R1. ووفقًا لموقع TechCrunch ، فقد تفوق R1 على نموذج OpenAI o1 في اختبارات الأداء المعيارية مثل AIME وMATH-500 وSWE-bench Verified.
وفي الوقت نفسه، فإن مبلغ 5.6 مليون دولار للتدريب النهائي لنموذج DeepSeek أمر صادم أيضاً، مقارنة بمئات الملايين من الدولارات التي تنفقها الشركات الأمريكية الرائدة على تدريب نماذجها.
المصدر: https://znews.vn/at-chu-bai-moi-cua-deepseek-lo-dien-post1540831.html






تعليق (0)