
ٹیک کمپنیاں جدید، توانائی سے بھرپور AI ماڈلز کی طرف رجوع کر رہی ہیں۔
حالیہ برسوں میں، مصنوعی ذہانت (AI) انڈسٹری نے بڑے پیمانے پر "بڑا بہتر ہے" کے اصول پر عمل کیا ہے: زیادہ ڈیٹا، زیادہ پیرامیٹرز، زیادہ حساب۔ تاہم، گوگل، ایم آئی ٹی اور سٹینفورڈ کی نئی تحقیق بالکل مختلف سمت دکھاتی ہے۔
جدید ماڈلز کو کم ڈیٹا کے ساتھ موثر طریقے سے تربیت دی جا سکتی ہے، کم توانائی استعمال کی جا سکتی ہے، اور پھر بھی اعلی کارکردگی حاصل کی جا سکتی ہے۔ یہ نہ صرف تربیت کے اخراجات اور وقت کو کم کرتا ہے، بلکہ چھوٹی ریسرچ ٹیموں اور درمیانے درجے کے کاروباری اداروں کے لیے AI ایپلی کیشنز کو بھی کھولتا ہے، جنہیں پہلے بڑے پیمانے پر ٹیکنالوجی تک رسائی حاصل کرنے میں دشواری ہوتی تھی۔
تکنیکی ترقی AI کو "چھوٹا لیکن طاقتور" بنانے میں مدد کرتی ہے۔
Tuoi Tre Online کی تحقیق کے مطابق، ایڈ پروسیسنگ ٹیسٹ میں، گوگل نے تربیتی ڈیٹا کو 100,000 نمونوں سے کم کر کے 500 نمونوں سے کم کر دیا جبکہ ماہرین کے ساتھ مطابقت میں اب بھی 65 فیصد اضافہ ہوا۔
متوازی طور پر، ڈیٹا کی موثر تربیت کا ایک جامع سروے ظاہر کرتا ہے کہ "ڈیٹا کوالٹی، سمارٹ سیمپلنگ، اور 'آسٹلیشن' تکنیک کارکردگی کا تعین کرتی ہیں،" نہ کہ صرف ڈیٹا کی تعداد میں اضافہ۔
نظریہ میں، "اسکیلنگ قوانین" نے تجویز کیا ہے کہ ماڈل کے پیرامیٹرز، ڈیٹا اور کمپیوٹ میں اضافہ کرنے میں مدد ملے گی، لیکن میٹا میں AI کے ڈائریکٹر Yann LeCun جیسے ماہرین اس بات پر زور دیتے ہیں: "آپ صرف ڈیٹا اور کمپیوٹ میں اضافہ نہیں کر سکتے اور AI کو خود بخود بہتر نہیں بنا سکتے۔"
اس کا مطلب یہ ہے کہ لاکھوں سے اربوں نمونوں کو بنانے اور لیبل کرنے کی بجائے، تحقیقی ٹیمیں ڈیٹا کو دوبارہ استعمال کرنے، مصنوعی ڈیٹا بنانے، چھوٹے ماڈل استعمال کرنے، اور الگورتھم پر توجہ مرکوز کرنے کی کوشش کر رہی ہیں جو زیادہ توانائی اور ڈیٹا موثر ہیں۔
مثال کے طور پر، "نالج ڈسٹلیشن" کی تکنیک علم کو "استاد" (ایک بڑے ٹیچر ماڈل) سے "طالب علم" (ایک کمپیکٹ اسٹوڈنٹ ماڈل) میں منتقل کرنے کی اجازت دیتی ہے جب کہ اب بھی بہت سی صلاحیتیں برقرار ہیں۔ Stanford HAI کے محققین اس بات پر زور دیتے ہیں کہ یہ رجحان کمپیوٹیشنل طور پر لاگت کے لحاظ سے مؤثر اور ماحول دوست ہے، جبکہ چھوٹے ریسرچ گروپوں یا چھوٹے اور درمیانے درجے کے کاروباری اداروں کے لیے AI کو مؤثر طریقے سے لاگو کرنے کے مواقع فراہم کرتا ہے۔
یہ پیشرفت AI ماڈلز کو کم ڈیٹا استعمال کرنے، تیز چلانے، کم بجلی استعمال کرنے، لاگت کو کم کرنے، پائیداری بڑھانے، اور ذہین اصلاح کی طرف بڑھنے، تیزی سے سیکھنے، کم وسائل استعمال کرنے، اور پھر بھی معیار کو یقینی بنانے کے لیے وسائل کے محدود ماحول میں ایپلی کیشنز کو بڑھانے کے قابل بناتی ہے۔
عملی ایپلی کیشنز اور ڈیٹا موثر AI تربیت کے چیلنجز
درحقیقت، کم ڈیٹا اور طاقت کے ساتھ AI کی تربیت کا وسیع اثر پڑتا ہے۔ ترقی پذیر ممالک میں چھوٹے کاروباروں یا تحقیقی ٹیموں کے لیے، "لاکھوں نمونوں اور بڑے سرورز کا استعمال" ممکن نہیں ہے۔ جب کوئی چند ہزار نمونوں اور عام کمپیوٹرز کے ساتھ ماڈل کو تربیت دے سکتا ہے، تو AI ایپلی کیشنز آخری صارفین اور حقیقی ماحول کے قریب ہوں گی۔
مثال کے طور پر، اشتہارات کے اعتدال کے ڈائیلاگ میں، گوگل یہ ظاہر کرتا ہے کہ ڈیٹا کا ایک "ویلیو" نمونہ منتخب کرنا سینکڑوں ہزاروں بے ترتیب نمونوں سے بہتر ہے- نتائج حاصل کرنے کے دوران مطلوبہ ڈیٹا کی مقدار کو کم کرتا ہے۔
تاہم، چیلنج بدستور موجود ہے: جب ڈیٹا کی کمی ہوتی ہے، تو ماڈل اوور فٹنگ، ناقص جنرلائزیشن، اور ماحول میں تبدیلیوں کو سنبھالنے میں دشواری کا شکار ہوتا ہے۔ بصری منتقلی سیکھنے پر تحقیق سے پتہ چلتا ہے کہ جب ان پٹ ڈیٹا بہت محدود ہوتا ہے، تو کشید زیادہ موثر ہوتی ہے، لیکن جب ڈیٹا کافی بڑا ہوتا ہے، تب بھی روایتی طریقہ جیت جاتا ہے۔
بجلی کی کھپت اور لاگت کے لحاظ سے، ڈیٹا کو کم کرنے کا مطلب کمپیوٹیشن، سرورز اور بجلی کو کم کرنا بھی ہے، جو کہ بڑے AI ماڈلز (LLM) کے تناظر میں اہم ہے جس کی لاگت لاکھوں ڈالر فی تربیت ہے۔
سٹینفورڈ ایچ اے آئی کی ایک رپورٹ کے مطابق، ڈیٹا اور توانائی بچانے والے اے آئی کے رجحان کو 2025 میں ایک "بڑی تبدیلی" کے طور پر سمجھا جا رہا ہے۔
لہذا صحافیوں اور عام قارئین کے لیے یہ بات قابل غور ہے کہ جب AI اب صرف "ٹیک جنات" کے لیے نہیں ہے بلکہ کم ڈیٹا اور کم لاگت کے ساتھ چھوٹی ٹیموں کے ذریعے تخلیق کی جا سکتی ہے، تو بہت سی نئی ایپلی کیشنز چھوٹے کاروبار کے انتظام، علاقائی طبی ایپلی کیشنز سے لے کر ذاتی نوعیت کی سیکھنے تک ظاہر ہوں گی۔
لیکن صارفین کو یہ بھی محتاط رہنا چاہیے کہ "ڈیٹا" ماڈل کم درست اور تعصب کے لیے زیادہ حساس ہو سکتا ہے اگر اچھی طرح سے کنٹرول نہ کیا جائے۔
ماخذ: https://tuoitre.vn/ai-khong-con-can-du-lieu-khong-lo-cuoc-dua-huan-luyen-ai-tiet-kiem-nang-luong-20251031115025169.htm






تبصرہ (0)