DeepSeek کا نیا AI اپنی شاندار کارکردگی کے ساتھ ٹیک کی دنیا میں ایک ہنگامہ کھڑا کر رہا ہے۔ تصویر: SCMP |
DeepSeek نے باضابطہ طور پر DeepSeek V3-0324 متعارف کرایا، جو V3 خاندان میں بڑے پیمانے پر ماڈلنگ زبانوں (LLMs) کا تازہ ترین ورژن ہے۔
اپنے پیشروؤں کی طرح، یہ ماڈل Hugging Face پلیٹ فارم کے ذریعے مفت اور اوپن سورس کے ذریعے جاری کیا گیا ہے، جس میں پچھلے ورژنز، خاص طور پر استدلال اور پروگرامنگ کے شعبوں میں نمایاں پیش رفت ہے۔
خاص طور پر، OpenRouter کے مطابق، DeepSeek V3-0324 کو مکسچر آف ایکسپرٹس (MoE) کا استعمال کرتے ہوئے بنایا گیا تھا، جو کہ کچھ چینی AI ماڈلز میں بہت مشہور مشین لرننگ طریقہ ہے، اور اس کے 685 بلین پیرامیٹرز ہیں۔
ابتدائی جائزوں کے مطابق، یہ ماڈل مختلف کاموں میں متاثر کن کارکردگی کا مظاہرہ کرتا ہے۔ دریں اثنا، ایک Reddit پوسٹ سے پتہ چلتا ہے کہ DeepSeek V3-0324 نے Google کے Sonnet 3.7 ماڈل کو کوڈ جنریشن ٹیسٹ میں پکڑ لیا ہے۔
ذرائع یہ بھی بتاتے ہیں کہ DeepSeek V3-0324 غلطیوں کے بغیر طویل کوڈ کے ٹکڑوں کو بنانے کی صلاحیت رکھتا ہے۔ AI تجزیاتی ویب سائٹ ودھیا نے اس ماڈل کا تجربہ کیا اور اس کی کوڈ کی 700 لائنوں کو آسانی سے بنانے کی صلاحیت کو نوٹ کیا۔
X پر، DeepSeek V3-0324 کی ایپلیکیشن نے بھی ایک بڑا دھوم مچا دی۔ اس کو ثابت کرنے کے لیے، صارف دیپانشو شرما نے ایک ویڈیو پوسٹ کی جس میں دکھایا گیا ہے کہ یہ AI ماڈل آسانی سے 800 لائنوں کے کوڈ کے ساتھ ایک مکمل ویب سائٹ بنا سکتا ہے۔
ڈیپ سیک دسمبر 2024 میں سب سے زیادہ زیر بحث چینی AI کمپنی بن گئی جب اس نے DeepSeek-V3 کو لانچ کیا۔ اس ماڈل نے GPT-4o کے مقابلے میں کارکردگی حاصل کی لیکن کمپیوٹنگ وسائل کا صرف ایک حصہ استعمال کیا۔
تھوڑی دیر بعد، DeepSeek نے اپنا DeepSeek-R1 ریجننگ ماڈل جاری کیا۔ TechCrunch کے مطابق، R1 نے AIME، MATH-500، اور SWE-bench Verified جیسے بینچ مارکس پر OpenAI کے o1 کو پیچھے چھوڑ دیا۔
ایک ہی وقت میں، ڈیپ سیک کے ماڈل کی حتمی تربیت کے لیے 5.6 ملین ڈالر کا اعداد و شمار بھی چونکا دینے والا ہے، اس کے مقابلے میں ان کروڑوں ڈالرز جو معروف امریکی کمپنیاں اپنے ماڈلز کی تربیت پر خرچ کرتی ہیں۔
ماخذ: https://znews.vn/at-chu-bai-moi-cua-deepseek-lo-dien-post1540831.html






تبصرہ (0)