Vietnam.vn - Nền tảng quảng bá Việt Nam

پیش رفت کی تحقیق نے AI کے استدلال کو 'بلیک باکس' کھول دیا

AI میں اپنی کمانڈ ٹائپ کرنے اور نتائج حاصل کرنے کے بعد، کیا آپ جاننا چاہتے ہیں کہ ٹول نے آپ کا جواب کیسے نکالا؟

ZNewsZNews30/03/2025

Anthropic کے سی ای او Dario Amodei نے کمپنی کی تازہ ترین تحقیق کا اشتراک کیا۔ تصویر: فارچیون ۔

AI کمپنی Anthropic کے محققین کا کہنا ہے کہ انہوں نے یہ سمجھنے میں ایک بنیادی پیش رفت کی ہے کہ بڑے لینگویج ماڈلز (LLMs) کس طرح کام کرتے ہیں، یہ ایک ایسی پیش رفت ہے جس کے مستقبل کے AI ماڈلز کی حفاظت اور حفاظت کو بہتر بنانے کے لیے اہم مضمرات ہو سکتے ہیں۔

تحقیق سے پتہ چلتا ہے کہ AI ماڈلز ہماری سوچ سے بھی زیادہ ہوشیار ہیں۔ LLM ماڈلز کے ساتھ سب سے بڑا مسئلہ، جو ChatGPT، Gemini، Copilot جیسے طاقتور ترین چیٹ بوٹس کے پیچھے ہیں، یہ ہے کہ وہ بلیک باکس کی طرح کام کرتے ہیں۔

ہم ان پٹ داخل کر سکتے ہیں اور چیٹ بوٹس سے نتائج حاصل کر سکتے ہیں، لیکن وہ ایک مخصوص جواب کے ساتھ کیسے آتے ہیں، یہ ایک معمہ بنی ہوئی ہے، یہاں تک کہ ان محققین کے لیے جنہوں نے انہیں بنایا ہے۔

اس سے یہ اندازہ لگانا مشکل ہو جاتا ہے کہ ماڈل کب فریب کا شکار ہو سکتا ہے، یا غلط نتائج پیدا کر سکتا ہے۔ محققین نے AI کو خطرناک سوالات کے جوابات دینے سے روکنے کے لیے رکاوٹیں بھی کھڑی کیں، لیکن وہ یہ نہیں بتاتے کہ کچھ رکاوٹیں دوسروں کے مقابلے میں زیادہ موثر کیوں ہوتی ہیں۔

AI ایجنٹس "انعام ہیکنگ" کے بھی اہل ہیں۔ کچھ معاملات میں، AI ماڈلز صارفین سے جھوٹ بول سکتے ہیں کہ انہوں نے کیا کیا ہے یا کرنے کی کوشش کر رہے ہیں۔

اگرچہ حالیہ AI ماڈل استدلال کرنے اور سوچ کی زنجیروں کو پیدا کرنے کی صلاحیت رکھتے ہیں، لیکن کچھ تجربات سے معلوم ہوا ہے کہ وہ اب بھی اس عمل کی درست عکاسی نہیں کرتے جس کے ذریعے ماڈل جواب پر پہنچتا ہے۔

خلاصہ یہ کہ اینتھروپک محققین نے جو ٹول تیار کیا ہے وہ fMRI اسکینر کی طرح ہے جو نیورو سائنسدان انسانی دماغ کو اسکین کرنے کے لیے استعمال کرتے ہیں۔ اسے اپنے Claude 3.5 Haiku ماڈل پر لاگو کرنے سے، Anthropic LLM ماڈلز کے کام کرنے کے بارے میں کچھ بصیرت حاصل کرنے میں کامیاب ہوئے۔

محققین نے پایا کہ اگرچہ کلاڈ کو صرف ایک جملے میں اگلے لفظ کی پیشین گوئی کرنے کی تربیت دی گئی تھی، لیکن بعض کاموں میں اس نے طویل مدتی منصوبہ بندی کرنا سیکھا۔

مثال کے طور پر، جب کوئی نظم لکھنے کے لیے کہا جائے تو، کلاڈ کو پہلے ایسے الفاظ ملیں گے جو تھیم کے مطابق ہوں اور وہ شاعری کر سکیں، پھر مکمل آیات لکھنے کے لیے پیچھے کی طرف کام کریں۔

کلاڈ کی ایک عام AI زبان بھی ہے۔ اگرچہ اسے متعدد زبانوں کو سپورٹ کرنے کی تربیت دی گئی ہے، کلاڈ پہلے اس زبان میں سوچے گا، پھر اس کے نتائج کا اظہار جس زبان میں بھی کرے گا اس میں کرے گا۔

مزید برآں، کلاڈ کو ایک مشکل مسئلہ فراہم کرنے کے بعد، لیکن جان بوجھ کر غلط حل تجویز کرنے کے بعد، محققین نے دریافت کیا کہ صارف کو خوش کرنے کی تجویز کے بعد، کلاڈ اپنی سوچ کے بارے میں جھوٹ بول سکتا ہے۔

دوسرے معاملات میں، جب ایک سادہ سا سوال پوچھا گیا جس کا ماڈل بغیر کسی استدلال کے فوراً جواب دے سکتا ہے، کلاڈ نے پھر بھی ایک جعلی استدلال کا عمل گھڑ لیا۔

اینتھروپک کے ایک محقق جوش باسٹن نے کہا کہ اگرچہ کلاڈ نے دعویٰ کیا کہ اس نے ایک حساب کتاب کیا ہے، لیکن وہ کچھ ہوتا ہوا نہیں پا سکے۔

دریں اثنا، ماہرین کا کہنا ہے کہ ایسے مطالعات ہیں جو یہ ظاہر کرتے ہیں کہ بعض اوقات لوگ خود کو بھی نہیں سمجھتے، لیکن کیے گئے فیصلوں کو درست ثابت کرنے کے لیے صرف عقلی وضاحتیں کرتے ہیں۔

عام طور پر، لوگ اسی طرح کے طریقوں سے سوچتے ہیں. یہی وجہ ہے کہ ماہرین نفسیات نے عام علمی تعصبات کو دریافت کیا ہے۔

تاہم، ایل ایل ایم ایسی غلطیاں کر سکتے ہیں جو انسان نہیں کر سکتے، کیونکہ ان کے جوابات پیدا کرنے کا طریقہ ہمارے کام کو انجام دینے کے طریقے سے بہت مختلف ہے۔

اینتھروپک ٹیم نے پچھلی تکنیکوں کی طرح ہر نیوران کا انفرادی طور پر تجزیہ کرنے کے بجائے خصوصیات کی بنیاد پر سرکٹس میں نیوران کو گروپ کرنے کا طریقہ نافذ کیا۔

یہ نقطہ نظر، مسٹر باسٹن نے شیئر کیا، یہ سمجھنے میں مدد کرتا ہے کہ مختلف اجزاء کیا کردار ادا کرتے ہیں اور محققین کو نیٹ ورک کی تہوں کے ذریعے پورے تخمینے کے عمل کو ٹریک کرنے کی اجازت دیتا ہے۔

اس طریقہ کار میں یہ بھی حد ہے کہ یہ صرف تخمینہ ہے اور ایل ایل ایم کی پوری معلوماتی کارروائی کی عکاسی نہیں کرتا، خاص طور پر توجہ کے عمل میں تبدیلی، جو کہ بہت اہم ہے جبکہ ایل ایل ایم نتائج دیتا ہے۔

مزید برآں، اعصابی نیٹ ورک سرکٹس کی شناخت، یہاں تک کہ صرف چند درجن الفاظ طویل جملوں کے لیے، ایک ماہر گھنٹے لگتے ہیں۔ ان کا کہنا ہے کہ یہ ابھی تک واضح نہیں ہے کہ طویل جملوں کا تجزیہ کرنے کی تکنیک کو کیسے بڑھایا جائے۔

حدود کو ایک طرف رکھتے ہوئے، LLM کی اپنے داخلی استدلال کے عمل کی نگرانی کرنے کی صلاحیت AI سسٹمز کو کنٹرول کرنے کے نئے مواقع فراہم کرتی ہے تاکہ حفاظت اور حفاظت کو یقینی بنایا جا سکے۔

ایک ہی وقت میں، یہ محققین کو تربیت کے نئے طریقے تیار کرنے، AI کنٹرول کی رکاوٹوں کو بہتر بنانے، اور وہم اور گمراہ کن نتائج کو کم کرنے میں بھی مدد کر سکتا ہے۔

ماخذ: https://znews.vn/nghien-cuu-dot-pha-mo-ra-hop-den-suy-luan-cua-ai-post1541611.html


تبصرہ (0)

No data
No data

اسی زمرے میں

ڈونگ وان سٹون پلیٹیو - دنیا کا ایک نایاب 'زندہ جیولوجیکل میوزیم'
2026 میں ویت نام کے ساحلی شہر کو دنیا کی سرفہرست مقامات میں شامل ہوتے دیکھیں
Admire 'Ha Long Bay on land' ابھی ابھی دنیا کے پسندیدہ ترین مقامات میں داخل ہوا ہے۔
کمل کے پھول 'رنگنے' Ninh Binh اوپر سے گلابی

اسی مصنف کی

ورثہ

پیکر

کاروبار

ہو چی منہ شہر میں بلند و بالا عمارتیں دھند میں ڈوبی ہوئی ہیں۔

موجودہ واقعات

سیاسی نظام

مقامی

پروڈکٹ