
مصنوعی ذہانت کے پروگراموں نے حالیہ برسوں میں بہت سی کامیابیاں حاصل کی ہیں - تصویر: REUTERS
ہم ان پٹ ڈیٹا سے لے کر بڑے لینگویج ماڈل (LLMs) کے آؤٹ پٹ نتائج تک پورے عمل کا مشاہدہ نہیں کر سکتے۔
اسے سمجھنے میں آسانی پیدا کرنے کے لیے، سائنس دانوں نے عام اصطلاحات کا استعمال کیا ہے جیسے "ریزننگ" یہ بیان کرنے کے لیے کہ یہ پروگرام کیسے کام کرتے ہیں۔ وہ یہ بھی کہتے ہیں کہ پروگرام "سوچ سکتے ہیں،" "وجہ" اور "سمجھ" سکتے ہیں اسی طرح جیسے انسان کرتے ہیں۔
AI کی صلاحیتوں کو بڑھا چڑھا کر پیش کرنا۔
6 ستمبر کو ZDNET کے مطابق، پچھلے دو سالوں میں، بہت سے AI ایگزیکٹوز نے سادہ تکنیکی کامیابیوں کو بڑھانے کے لیے مبالغہ آمیز زبان کا استعمال کیا ہے۔
ستمبر 2024 میں، OpenAI نے اعلان کیا کہ اس کا o1 استدلال کا ماڈل "مسائل کو حل کرتے وقت استدلال کا ایک سلسلہ استعمال کرتا ہے، جیسا کہ مشکل سوالات کا سامنا کرنے پر انسان طویل عرصے تک کیسے سوچتا ہے۔"
تاہم، AI سائنسدان اس سے متفق نہیں ہیں۔ ان کا استدلال ہے کہ AI انسان جیسی ذہانت کا مالک نہیں ہے۔
ایریزونا اسٹیٹ یونیورسٹی (USA) کے مصنفین کی ایک ٹیم کے ذریعہ arXiv ڈیٹا بیس پر مبنی ایک مطالعہ نے ایک سادہ تجربے کے ذریعے AI کی استدلال کی صلاحیت کا تجربہ کیا ہے۔
نتائج بتاتے ہیں کہ "سوچ کی ترتیب کے ذریعے حوالہ دینا ایک نازک وہم ہے،" ایک حقیقی منطقی طریقہ کار نہیں، بلکہ پیٹرن کے ملاپ کی محض ایک نفیس شکل ہے۔
اصطلاح "CoT" (Co-Thought Chain) AI کو نہ صرف حتمی جواب فراہم کرنے بلکہ منطقی استدلال کے ہر مرحلے کو پیش کرنے کی اجازت دیتی ہے، جیسا کہ GPT-o1 یا DeepSeek V1 جیسے ماڈلز میں ہے۔

OpenAI کے ذریعہ GPT-2 زبان کے ماڈل کی مثال - تصویر: ECHOCRAFTAI
چیک کریں کہ AI اصل میں کیا کرتا ہے۔
تحقیقی ٹیم نے بتایا کہ بڑے پیمانے پر ہونے والے تجزیوں سے پتہ چلتا ہے کہ LLM منطقی استدلال کے عمل کے بجائے سیمنٹکس اور سطحی اشارے پر زیادہ انحصار کرتا ہے۔
ٹیم نے وضاحت کی کہ "LLMs سیکھے ہوئے ان پٹ ایسوسی ایشنز کی بنیاد پر سطحی منطق کی ترتیب بناتے ہیں، اکثر ایسے کاموں میں ناکام رہتے ہیں جو روایتی استدلال کے طریقوں یا مانوس نمونوں سے ہٹ جاتے ہیں،" ٹیم نے وضاحت کی۔
اس مفروضے کو جانچنے کے لیے کہ LLM صرف نمونوں سے مماثل ہے اور حقیقت میں اندازہ نہیں لگا رہا ہے، تحقیقی ٹیم نے GPT-2 کو تربیت دی، جو OpenAI سے 2019 میں لانچ کیا گیا ایک اوپن سورس ماڈل ہے۔
ماڈل کو ابتدائی طور پر 26 انگریزی حروف پر مشتمل بہت آسان کاموں پر تربیت دی گئی تھی، جیسے کہ کچھ حروف کو دوبارہ ترتیب دینا، مثال کے طور پر، "APPLE" کو "EAPPL" میں تبدیل کرنا۔ پھر ٹیم نے کام کو تبدیل کیا اور GPT-2 کو اس پر کارروائی کرنے کو کہا۔
نتائج سے پتہ چلتا ہے کہ تربیتی ڈیٹا میں شامل نہ ہونے والے کاموں کے لیے، GPT-2 CoT کا استعمال کرتے ہوئے انہیں درست طریقے سے حل نہیں کر سکا۔
اس کے بجائے، ماڈل سیکھے ہوئے کاموں کو ممکنہ حد تک قریب سے لاگو کرنے کی کوشش کرتا ہے۔ لہٰذا، اس کی "استدلال" منطقی لگ سکتی ہے، لیکن نتائج اکثر غلط نکلتے ہیں۔
گروپ نے یہ نتیجہ اخذ کیا کہ کسی کو LLM کے جوابات پر بہت زیادہ بھروسہ نہیں کرنا چاہیے اور نہ ہی ان پر اندھا اعتماد کرنا چاہیے، کیونکہ وہ "بکواس لیکن انتہائی قابل اعتماد بیانات" پیش کر سکتے ہیں۔
انہوں نے AI کی اصل نوعیت کو سمجھنے، مبالغہ آرائی سے گریز کرنے اور اس خیال کو فروغ دینے کی ضرورت پر بھی زور دیا کہ AI میں انسان جیسی استدلال کی صلاحیتیں ہیں۔
ماخذ: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm






تبصرہ (0)