एनवीडिया ने 18 मार्च को अपने डेवलपर इवेंट में आर्टिफिशियल इंटेलिजेंस (एआई) बाजार में अपनी स्थिति मजबूत करने के लिए कई नए उत्पादों की घोषणा की। 2022 के अंत में चैटजीपीटी द्वारा वैश्विक एआई दौड़ शुरू करने के बाद से चिप निर्माता के शेयर की कीमत 54 गुना बढ़ गई है और राजस्व तीन गुना से भी अधिक हो गया है। एनवीडिया के उच्च-स्तरीय सर्वर जीपीयू बड़े भाषा मॉडल के प्रशिक्षण और परिनियोजन के लिए महत्वपूर्ण हैं, और माइक्रोसॉफ्ट और मेटा जैसी कंपनियां इन चिप्स पर अरबों डॉलर खर्च कर रही हैं।

lgfqkmt7.png
GB200 चिप में 2 GPU, 1 CPU और 1 सर्किट बोर्ड शामिल हैं। (फोटो: Nvidia)

एनवीडिया अपनी अगली पीढ़ी की एआई चिप को ब्लैकवेल नाम देता है। पहली ब्लैकवेल चिप, GB200, इस साल के अंत में उपलब्ध होगी। नए ऑर्डर बढ़ाने के लिए एनवीडिया ग्राहकों को ज़्यादा शक्तिशाली चिप्स दे रहा है। ग्राहक अभी भी H100 हॉपर चिप पाने के लिए संघर्ष कर रहे हैं।

एनवीडिया के सीईओ जेन्सन हुआंग ने कार्यक्रम में कहा, "हॉपर बहुत बढ़िया है, लेकिन हमें बड़े जीपीयू की जरूरत है।"

ब्लैकवेल चिप के साथ, एनवीडिया ने एनआईएम सॉफ्टवेयर भी पेश किया है जो एआई को तैनात करना आसान बनाता है। एनवीडिया के अधिकारियों का कहना है कि कंपनी चिप आपूर्तिकर्ता से ज़्यादा ऐप्पल और माइक्रोसॉफ्ट जैसी प्लेटफ़ॉर्म प्रदाता बन रही है।

हुआंग ने कहा, "ब्लैकवेल कोई चिप नहीं है, यह एक प्लेटफ़ॉर्म का नाम है।" एनवीडिया के उपाध्यक्ष मनुवीर दास ने वादा किया कि एनआईएम सॉफ़्टवेयर डेवलपर्स को किसी भी एनवीडिया जीपीयू, चाहे वह पुराना हो या नया, पर प्रोग्राम चलाने में मदद करेगा ताकि ज़्यादा लोगों तक पहुँच सके।

ब्लैकवेल, हॉपर के "उत्तराधिकारी"

हर दो साल में, Nvidia अपने GPU आर्किटेक्चर को अपडेट करता है, जिससे नए प्रदर्शन लाभ सामने आते हैं। पिछले साल जारी किए गए कई AI मॉडल हॉपर आर्किटेक्चर पर प्रशिक्षित किए गए थे, जो 2022 से उपलब्ध होगा।

एनवीडिया का कहना है कि ब्लैकवेल-आधारित चिप्स जैसे GB200, AI व्यवसायों के प्रदर्शन में उल्लेखनीय वृद्धि प्रदान करते हैं, जो H100 के 4 पेटाफ्लॉप की तुलना में 20 पेटाफ्लॉप प्रदान करते हैं। यह प्रोसेसिंग पावर AI व्यवसायों को बड़े और अधिक जटिल मॉडलों को प्रशिक्षित करने में सक्षम बनाती है।

8wz8dxva.png
Nvidia GB200 NVLink 2 36 CPU और 72 GPU को एक रैक में जोड़ता है। (छवि: Nvidia)

ब्लैकवेल जीपीयू बड़ा है और दो अलग-अलग निर्मित डाई को एक चिप में जोड़ता है। यह GB200 NVLink 2 नामक एक पूर्ण सर्वर के रूप में भी उपलब्ध है, जो 72 ब्लैकवेल जीपीयू और एआई मॉडलों को प्रशिक्षित करने के लिए डिज़ाइन किए गए अन्य Nvidia पुर्जों को एक साथ जोड़ता है।

अमेज़न, गूगल, माइक्रोसॉफ्ट और ओरेकल क्लाउड सेवाओं के माध्यम से GB200 तक पहुँच बेचेंगे। GB200 में दो B200 ब्लैकवेल GPU और एक ग्रेस CPU का संयोजन है। Nvidia ने कहा कि अमेज़न वेब सर्विसेज (AWS) 20,000 GB200 चिप्स वाला एक सर्वर क्लस्टर बनाएगा।

यह प्रणाली 27 ट्रिलियन पैरामीटर मॉडल चला सकती है, जो आज उपलब्ध सबसे बड़े मॉडल, जैसे GPT-4 (1.7 ट्रिलियन पैरामीटर) से कहीं ज़्यादा बड़ा है। कई AI शोधकर्ताओं का मानना ​​है कि ज़्यादा पैरामीटर और डेटा वाले बड़े मॉडल नई क्षमताओं को उजागर कर सकते हैं।

एनवीडिया ने नए जीबी200 या जीबी200 वाले सिस्टम की कीमतों की घोषणा नहीं की है। विश्लेषकों के अनुमान के अनुसार, एनवीडिया के हॉपर-आधारित एच100 की कीमत प्रति यूनिट $25,000 से $40,000 के बीच है, और पूरे सिस्टम की कीमत $200,000 तक है।

(सीएनबीसी के अनुसार)