يعتقد جينسن هوانج الرئيس التنفيذي لشركة إنفيديا أن المستثمرين أساءوا فهم التقدم الذي أحرزته شركة DeepSeek في مجال الذكاء الاصطناعي، مما أدى إلى عمليات بيع في أسهم التكنولوجيا، بما في ذلك إنفيديا.
في يناير/كانون الثاني، أطلقت شركة DeepSeek الصينية الناشئة نموذج الاستدلال R1 مفتوح المصدر. وتقول الشركة إن نموذج اللغة الكبير وراء R1 تم تطويره باستخدام شرائح أقل قوة وبتكلفة أقل بكثير من نماذج الذكاء الاصطناعي الغربية.
واستجاب المستثمرون للأخبار بالتخلص من أسهم شركة إنفيديا وشركات التكنولوجيا الأخرى، مما تسبب في خسارة إنفيديا 600 مليار دولار من قيمتها السوقية في يوم واحد فقط. ومع ذلك، تمكنت أكبر شركة أشباه الموصلات في العالم الآن من استعادة معظم ما فقدته.
في أحدث فيديو له، يزعم جينسن هوانج أن رد الفعل المتطرف للسوق نابع من سوء تفسير المستثمرين لتقدم DeepSeek.
يتساءل البعض عما إذا كانت تريليونات الدولارات التي تنفقها شركات التكنولوجيا الكبرى على البنية التحتية للذكاء الاصطناعي ضرورية إذا كانت هناك حاجة إلى قوة حوسبة أقل لتدريب النماذج.
ومع ذلك، قال السيد هوانغ إن الصناعة لا تزال بحاجة إلى قوة الحوسبة لأساليب ما بعد التدريب، والتي تسمح لنماذج الذكاء الاصطناعي باستخلاص الاستنتاجات أو التنبؤات بعد تدريبها.
مع تزايد تنوع أساليب ما بعد التدريب وتقدمها، يتزايد الطلب على قوة الحوسبة التي توفرها شرائح Nvidia.
وفقًا للرئيس التنفيذي لشركة Nvidia، يعتقد المستثمرون أن العالم لا يحتوي إلا على التدريب المسبق والاستدلال (طرح سؤال على الذكاء الاصطناعي والحصول على إجابة فورية)، ولكن التدريب اللاحق هو الجزء الأكثر أهمية في الذكاء الاصطناعي. وهذا هو المكان الذي يتعلم فيه حل المشاكل المتخصصة.
ومع ذلك، لا ينكر السيد هوانغ أن DeepSeek "حقنت" المزيد من الطاقة في عالم الذكاء الاصطناعي. وعلقت ليزا سو، الرئيسة التنفيذية لشركة AMD، أيضًا على أن DeepSeek تقود الابتكارات "المفيدة لتطبيقات الذكاء الاصطناعي" في مقابلة أجريت في وقت سابق من هذا الشهر.
يشير مصطلح التدريب المسبق إلى المرحلة الأولية من تدريب نموذج لغوي كبير (LLM)، حيث يتعلم النموذج من مجموعة بيانات كبيرة ومتنوعة، عادةً ما يصل إلى عدة تريليونات من الرموز.
الهدف هنا هو مساعدة النموذج في الحصول على فهم عام للغة والسياق وأنواع المعرفة الشائعة. تتطلب هذه المرحلة في كثير من الأحيان قوة حسابية هائلة وبيانات هائلة، وتتكلف مئات الملايين من الدولارات.
مصطلح ما بعد التدريب أو الضبط الدقيق هو عندما تأخذ نموذجًا تم تدريبه مسبقًا ثم تقوم بتدريبه مرة أخرى بمجموعة بيانات أكثر تحديدًا. تكون هذه المجموعات من البيانات عادةً أصغر حجمًا وتركز على مجال أو مهمة معينة.
الغرض منه هو ضبط النموذج ليعمل بشكل أفضل في السيناريوهات والمهام المحددة، والتي لم يتم تناولها بعمق أثناء التدريب المسبق. ستعمل المعرفة الجديدة المضافة بعد التدريب على تحسين أداء النموذج أكثر من توسيع المعرفة العامة.
(وفقا لـ Insider وReddit)
[إعلان 2]
المصدر: https://vietnamnet.vn/jensen-huang-nha-dau-tu-sai-lam-khi-ban-thao-co-phieu-nvidia-vi-deepseek-2373687.html
تعليق (0)