مصنوعی ذہانت کے پروگراموں نے حالیہ برسوں میں بہت سی کامیابیاں حاصل کی ہیں۔ تصویر: REUTERS
ہم ان پٹ ڈیٹا سے لے کر بڑے لینگویج ماڈل (LLMs) کے آؤٹ پٹ نتائج تک پورے عمل کا مشاہدہ نہیں کر سکتے۔
اسے سمجھنے میں آسانی پیدا کرنے کے لیے، سائنسدانوں نے عام اصطلاحات کا استعمال کیا ہے جیسے "استدلال" یہ بیان کرنے کے لیے کہ یہ پروگرام کیسے کام کرتے ہیں۔ وہ یہ بھی کہتے ہیں کہ پروگرام "سوچ سکتے ہیں،" "وجہ" اور "سمجھ" سکتے ہیں جس طرح انسان کرتے ہیں۔
AI کی صلاحیتوں کو بڑھاوا دینا
6 ستمبر کو ZDNET کے مطابق، پچھلے دو سالوں میں، بہت سے AI ایگزیکٹوز نے سادہ تکنیکی کامیابیوں کو بڑھا چڑھا کر پیش کرنے کے لیے ہائپربول کا استعمال کیا ہے۔
ستمبر 2024 میں، اوپن اے آئی نے اعلان کیا کہ o1 استدلال کا ماڈل "مسائل کو حل کرتے وقت اندازہ کی ایک زنجیر کا استعمال کرتا ہے، جیسا کہ مشکل سوالات کا سامنا کرنے پر انسان طویل عرصے تک سوچتے ہیں۔"
تاہم، AI سائنسدانوں نے اعتراض کیا. ان کا ماننا ہے کہ اے آئی میں انسانی ذہانت نہیں ہے۔
ایریزونا اسٹیٹ یونیورسٹی (USA) کے مصنفین کے ایک گروپ کے ذریعہ arXiv ڈیٹا بیس پر ایک مطالعہ نے ایک سادہ تجربے کے ساتھ AI کی استدلال کی صلاحیت کی تصدیق کی ہے۔
نتائج سے پتہ چلتا ہے کہ "خیال کی زنجیر سے اندازہ لگانا ایک نازک وہم ہے"، ایک حقیقی منطقی طریقہ کار نہیں ہے، بلکہ پیٹرن کے ملاپ کی صرف ایک نفیس شکل ہے۔
اصطلاح "چین کی سوچ" (CoT) AI کو نہ صرف حتمی جواب کے ساتھ آنے کی اجازت دیتی ہے بلکہ منطقی استدلال کے ہر مرحلے کو بھی پیش کرتی ہے، جیسا کہ GPT-o1 یا DeepSeek V1 ماڈلز میں ہے۔
OpenAI کے GPT-2 زبان کے ماڈل کی مثال - تصویر: ECHOCRAFTAI
چیک کریں کہ AI اصل میں کیا کرتا ہے۔
محققین کا کہنا ہے کہ بڑے پیمانے پر ہونے والے تجزیوں سے پتہ چلتا ہے کہ ایل ایل ایم منطقی استدلال کے عمل کے بجائے سیمنٹکس اور سطحی اشارے پر انحصار کرتا ہے۔
"LLM سیکھے ہوئے ان پٹ ایسوسی ایشنز کی بنیاد پر سطحی منطق کی زنجیریں بناتا ہے، اکثر ایسے کاموں میں ناکام رہتا ہے جو روایتی استدلال کے طریقوں یا مانوس نمونوں سے ہٹ جاتے ہیں،" ٹیم بتاتی ہے۔
اس مفروضے کو جانچنے کے لیے کہ LLM صرف نمونوں سے مماثلت رکھتا ہے اور حقیقت میں اندازہ نہیں لگاتا، ٹیم نے 2019 میں OpenAI کے ذریعہ جاری کردہ ایک اوپن سورس ماڈل GPT-2 کو تربیت دی۔
ماڈل کو ابتدائی طور پر 26 انگریزی حروف پر بہت آسان کاموں پر تربیت دی گئی تھی، جیسے کچھ حروف کو الٹنا، مثال کے طور پر "APPLE" کو "EAPPL" میں تبدیل کرنا۔ پھر ٹیم نے ٹاسک تبدیل کیا اور GPT-2 کو اسے سنبھالنے کو کہا۔
نتائج سے پتہ چلتا ہے کہ جن کاموں کو تربیتی ڈیٹا میں شامل نہیں کیا گیا ہے، GPT-2 انہیں CoT کا استعمال کرتے ہوئے درست طریقے سے حل نہیں کر سکتا۔
اس کے بجائے، ماڈل سب سے زیادہ اسی طرح کے سیکھے ہوئے کاموں کو لاگو کرنے کی کوشش کرتا ہے۔ لہٰذا اس کے "تشخیصات" معقول لگ سکتے ہیں، لیکن نتائج اکثر غلط ہوتے ہیں۔
گروپ نے یہ نتیجہ اخذ کیا کہ کسی کو زیادہ بھروسہ نہیں کرنا چاہیے اور نہ ہی LLM کے جوابات پر آنکھیں بند کر کے بھروسہ کرنا چاہیے، کیونکہ وہ "بکواس جو بہت قائل ہو" پیدا کر سکتے ہیں۔
انہوں نے AI کی اصل نوعیت کو سمجھنے، ہائپ سے بچنے اور اس بات کو فروغ دینے سے روکنے کی ضرورت پر بھی زور دیا کہ AI میں انسانوں کی طرح استدلال کرنے کی صلاحیت ہے۔
ماخذ: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm
تبصرہ (0)