كانت شركة Nvidia معروفة في السابق بأنها الشركة المصنعة للرقائق المستخدمة في ألعاب الفيديو، ولكنها حولت تركيزها إلى سوق مراكز البيانات في السنوات الأخيرة.
شهدت شركة الرقائق الأمريكية ازدهارًا ملحوظًا خلال فترة الجائحة، مع ازدياد الطلب على تطبيقات الألعاب والحوسبة السحابية، وانتشار حمى تعدين العملات المشفرة عالميًا . وبحلول نهاية السنة المالية المنتهية في 29 يناير، شكّلت أعمالها في مجال رقائق مراكز البيانات أكثر من 50% من إيرادات الشركة.
وفي الوقت نفسه، أخذ برنامج المحادثة الشهير ChatGPT الذكاء الاصطناعي التوليدي إلى المستوى التالي هذا العام، باستخدام كميات هائلة من البيانات الموجودة لتوليد محتوى جديد حول مواضيع تتراوح من الشعر إلى برمجة الكمبيوتر.
مايكروسوفت وألفابت، عملاقتا التكنولوجيا الرائدتان في مجال الذكاء الاصطناعي، تؤمنان بأن التكنولوجيا التوليدية قادرة على تغيير طريقة عمل الناس. وقد أطلقتا سباقًا لدمج الذكاء الاصطناعي في محركات البحث، بالإضافة إلى برامج المكاتب، سعيًا للسيطرة على هذه الصناعة.
وتشير تقديرات جولدمان ساكس إلى أن الاستثمار الأمريكي في الذكاء الاصطناعي قد يصل إلى نحو 1% من الناتج الاقتصادي للبلاد بحلول عام 2030.
تعتمد الحواسيب العملاقة المستخدمة لمعالجة البيانات وتشغيل الذكاء الاصطناعي التوليدي على وحدات معالجة الرسومات (GPUs). صُممت وحدات معالجة الرسومات (GPUs) لمعالجة العمليات الحسابية المحددة المتعلقة بحوسبة الذكاء الاصطناعي، وهي أكثر كفاءة بكثير من وحدات المعالجة المركزية لشركات تصنيع الرقائق الأخرى مثل إنتل. على سبيل المثال، يعمل ChatGPT من OpenAI بآلاف وحدات معالجة الرسومات من Nvidia.
في الوقت نفسه، تستحوذ إنفيديا على حوالي 80% من سوق وحدات معالجة الرسومات. ومن أبرز منافسيها شركة أدفانسد مايكرو ديفايسز، ورقائق الذكاء الاصطناعي التي تنتجها شركات تقنية مثل أمازون وجوجل وميتا بلاتفورمز.
سر التسامي
كان الإنجاز الذي حققته الشركة هو شريحة H100، وهي شريحة مبنية على بنية Nvidia الجديدة المسماة "Hopper" - نسبةً إلى رائدة البرمجة الأمريكية غريس هوبر. وقد جعل التطور الهائل في الذكاء الاصطناعي من H100 السلعة الأكثر رواجًا في وادي السيليكون.
تحتوي الرقاقات فائقة الحجم المستخدمة في مراكز البيانات على 80 مليار ترانزستور، أي خمسة أضعاف السيليكون المستخدم في أحدث هواتف آيفون. ورغم أن تكلفتها ضعف تكلفة سابقتها، A100 (التي صدرت عام 2020)، إلا أن مستخدمي H100 يؤكدون أنها تقدم أداءً أفضل بثلاثة أضعاف.
لقد أثبتت H100 شعبيتها بشكل خاص لدى شركات "Big Tech" مثل Microsoft و Amazon، والتي تقوم ببناء مراكز بيانات كاملة تركز على أحمال عمل الذكاء الاصطناعي، وشركات الذكاء الاصطناعي من الجيل الجديد مثل OpenAI و Anthropic و Stability AI و Inflection AI لأنها تعد بأداء أعلى، مما يمكن أن يسرع إطلاق المنتجات أو يقلل من تكاليف التدريب بمرور الوقت.
قال برانين ماكبي، كبير مسؤولي الاستراتيجية ومؤسس CoreWeave، وهي شركة ناشئة في مجال الحوسبة السحابية تعتمد على الذكاء الاصطناعي وكانت من أوائل الشركات التي تلقت شحنات H100 في وقت سابق من هذا العام: "يعتبر هذا أحد أندر الموارد الهندسية المتاحة".
لم يحالف الحظ عملاء آخرون مثل CoreWeave، إذ اضطروا للانتظار لمدة تصل إلى ستة أشهر لاستلام منتجات لتدريب مجموعات بياناتهم الضخمة. وتخشى العديد من شركات الذكاء الاصطناعي الناشئة من عدم قدرة Nvidia على تلبية طلب السوق.
كما طلب إيلون ماسك أيضًا آلاف الرقائق من شركة Nvidia لشركته الناشئة في مجال الذكاء الاصطناعي، قائلاً "أصبح من الصعب الحصول على وحدات معالجة الرسومات في الوقت الحالي أكثر من الأدوية".
ارتفعت تكاليف الحوسبة بشكل كبير. ووصل الحد الأدنى للإنفاق على أجهزة الخوادم المستخدمة في بناء الذكاء الاصطناعي الإبداعي إلى 250 مليون دولار، حسبما أشار الرئيس التنفيذي لشركة تيسلا.
إذا جاء H100 في الوقت المناسب، فإنّ الاختراق الذي حققته إنفيديا في مجال الذكاء الاصطناعي يعود إلى عقدين من الزمن، حيث ابتكرت البرمجيات بدلاً من الأجهزة. في عام 2006، طرحت الشركة برنامج Cuda، الذي يستخدم وحدات معالجة الرسومات لتسريع المهام التي تتجاوز الرسومات.
قال ناثان بينيتش، الشريك في إير ستريت كابيتال والمستثمر في شركات الذكاء الاصطناعي الناشئة: "سبقت إنفيديا الجميع في استشراف المستقبل، وتوجهت نحو وحدات معالجة الرسومات القابلة للبرمجة. لقد استغلت الفرصة، وراهنت بقوة، وتفوقت باستمرار على منافسيها".
(بحسب رويترز، FT)
[إعلان 2]
مصدر
تعليق (0)