في حدث للمطورين في 18 مارس، أعلنت شركة Nvidia عن سلسلة من المنتجات الجديدة لتعزيز مكانتها في سوق الذكاء الاصطناعي (AI). ارتفعت أسعار أسهم شركة صناعة الرقائق بمقدار 54 ضعفًا وتضاعفت الإيرادات بأكثر من ثلاثة أضعاف منذ أن بدأت ChatGPT سباق الذكاء الاصطناعي العالمي في أواخر عام 2022. تعد وحدات معالجة الرسومات الخاصة بخوادم Nvidia المتطورة ضرورية لتدريب ونشر نماذج اللغة الكبيرة. لقد أنفقت شركات مثل مايكروسوفت وميتا مليارات الدولارات لشراء الرقائق.
إنفيديا تطلق على الجيل الجديد من رقائق الذكاء الاصطناعي اسم Blackwell. ستكون الشريحة الأولى من Blackwell – GB200 – متاحة في وقت لاحق من هذا العام. تقدم شركة Nvidia لعملائها شرائح أكثر قوة لتحفيز الطلبات الجديدة. في الوقت الحالي، لا يزال العملاء يبذلون قصارى جهدهم للحصول على شريحة H100 Hopper.
قال الرئيس التنفيذي لشركة Nvidia، جينسن هوانج، خلال الحدث: "Hopper رائع، لكننا بحاجة إلى وحدات معالجة رسومية أكبر".
إلى جانب شريحة Blackwell، قدمت Nvidia أيضًا برنامج NIM الذي يجعل نشر الذكاء الاصطناعي أسهل. وبحسب مسؤولين في شركة إنفيديا، فإن الشركة تتحول بشكل متزايد إلى مزود منصات مثل آبل ومايكروسوفت بدلاً من كونها مورد شرائح.
وقال السيد هوانج "إن بلاكويل ليست شريحة، بل هي اسم منصة" . وعد نائب رئيس شركة Nvidia مانوفير داس بتطوير برنامج NIM الذي سيساعد المبرمجين على تشغيل البرامج على أي وحدة معالجة رسومية من شركة Nvidia، قديمة كانت أم جديدة، للوصول إلى المزيد من الأشخاص.
بلاكويل، "خليفة" هوبر
كل عامين، تقوم شركة Nvidia بتحديث بنية وحدة معالجة الرسوميات الخاصة بها، مما يؤدي إلى تحقيق مكاسب جديدة في الأداء. تم تدريب العديد من نماذج الذكاء الاصطناعي التي تم إصدارها العام الماضي على بنية Hopper التي ستظهر في عام 2022.
وتقول شركة Nvidia إن الرقائق المستندة إلى Blackwell مثل GB200 تقدم ترقية كبيرة في أداء الذكاء الاصطناعي للشركات التي تعمل في مجال الذكاء الاصطناعي، بمعدل 20 بيتافلوب مقارنة بـ 4 بيتافلوب على H100. تتيح قوة المعالجة هذه لشركات الذكاء الاصطناعي تدريب نماذج أكبر وأكثر تعقيدًا.
تعتبر وحدة معالجة الرسوميات Blackwell كبيرة الحجم وتجمع بين قالبين تم تصنيعهما بشكل منفصل في شريحة واحدة. وهو متاح أيضًا كخادم كامل يسمى GB200 NVLink 2، والذي يجمع 72 وحدة معالجة رسومية من Blackwell وأجزاء أخرى من Nvidia مصممة لتدريب نماذج الذكاء الاصطناعي.
ستبيع شركات أمازون وجوجل ومايكروسوفت وأوراكل إمكانية الوصول إلى GB200 من خلال الخدمات السحابية. يجمع GB200 بين وحدتي معالجة رسوميات B200 Blackwell مع وحدة معالجة مركزية Grace. قالت شركة Nvidia أن شركة Amazon Web Services (AWS) ستقوم ببناء مجموعة خوادم تحتوي على 20 ألف شريحة GB200.
يمكن للنظام نشر نموذج يحتوي على 27 تريليون معلمة، وهو أكبر بكثير من أكبر النماذج الحالية مثل GPT-4 (1.7 تريليون معلمة). يعتقد العديد من الباحثين في مجال الذكاء الاصطناعي أن النماذج الأكبر حجمًا والمزودة بمزيد من المعلمات والبيانات يمكنها إطلاق قدرات جديدة.
ولم تعلن شركة Nvidia عن أسعار GB200 الجديدة أو الأنظمة التي تحتوي على GB200. وتتراوح تكلفة H100 التي تعتمد على Hopper من Nvidia بين 25 ألف دولار و40 ألف دولار لكل وحدة، كما تبلغ تكلفة النظام بأكمله ما يصل إلى 200 ألف دولار، وفقًا لتقديرات المحللين.
(وفقا لشبكة CNBC)
[إعلان 2]
مصدر
تعليق (0)