Nvidia نے 3 دسمبر کو نیا ڈیٹا جاری کیا جس سے ظاہر ہوتا ہے کہ اس کا نیا مصنوعی ذہانت (AI) سرور جدید ترین AI ماڈلز کی کارکردگی کو بہتر بنانے کی صلاحیت رکھتا ہے، بشمول چین کے مقبول ماڈل، سرورز کی پچھلی نسل کے مقابلے میں 10 گنا تک۔
اعداد و شمار اس وقت سامنے آتے ہیں جب AI انڈسٹری اپنی توجہ ماڈل ٹریننگ سے ہٹاتی ہے، ایک ایسا علاقہ جہاں Nvidia فی الحال لاکھوں صارفین کو ماڈلز کی تعیناتی کی طرف لے جاتی ہے، ایک ایسا علاقہ جس میں Advanced Micro Devices (AMD) اور Cerebras جیسے حریفوں سے مسابقت بڑھ رہی ہے۔
Nvidia کا کہنا ہے کہ یہ بہتری بڑی تعداد میں چپس کو ایک ہی سرور میں پیک کرنے کی صلاحیت اور ان کے درمیان تیز رفتار رابطوں سے آتی ہے، ایک ایسا علاقہ جہاں وہ اب بھی اپنے حریفوں پر واضح برتری حاصل کرتا ہے اور برقرار رکھتا ہے۔ Nvidia کا تازہ ترین AI سرور اپنی 72 ٹاپ آف دی لائن چپس سے لیس ہے۔
Nvidia نے جو ڈیٹا جاری کیا ہے وہ بنیادی طور پر AI ماڈلز پر مرکوز ہے جو Mixture-of-Experts (MoE) فن تعمیر کا استعمال کرتے ہیں، یہ ایک طریقہ ہے جو کاموں کو الگ الگ حصوں میں تقسیم کرکے اور پروسیسنگ کے لیے ماڈل کے اندر مختلف "ماہرین" کو تفویض کرکے AI ماڈلز کی کارکردگی کو بہتر بناتا ہے۔
MoE فن تعمیر نے 2025 میں مقبولیت حاصل کی، خاص طور پر اس کے بعد جب ایک چینی AI کمپنی DeepSeek نے ایک اعلیٰ کارکردگی والا اوپن سورس ماڈل متعارف کرایا جس کے لیے دیگر حریفوں کے مقابلے Nvidia چپس پر کم تربیتی وقت درکار تھا۔
اس کے بعد سے، OpenAI (ChatGPT کی بنانے والی)، فرانس کی Mistral، اور چین کی Moonshot AI جیسی بڑی کمپنیوں نے اپنے ماڈلز پر MoE طریقہ کار کو لاگو کرنا شروع کر دیا ہے۔ Moonshot AI نے گزشتہ جولائی میں ایک انتہائی معتبر اوپن سورس ماڈل جاری کیا جس میں تکنیک کا استعمال کیا گیا ہے۔
جبکہ Nvidia AI ماڈل کی تعیناتی میں ایک فائدہ برقرار رکھے ہوئے ہے، AMD جیسے حریف بھی مسابقتی مصنوعات تیار کرنے کے لیے سخت محنت کر رہے ہیں۔
توقع ہے کہ AMD اگلے سال اسی طرح کا AI سرور لانچ کرے گا، جس کا مقصد Nvidia کے سرورز کے ساتھ براہ راست مقابلہ (ماڈل پروسیسنگ اور تعیناتی) کے میدان میں کرنا ہے۔
ماخذ: https://www.vietnamplus.vn/nvidia-cong-bo-may-chu-ai-moi-co-hieu-suat-cao-gap-10-lan-post1080980.vnp






تبصرہ (0)