Vietnam.vn - Nền tảng quảng bá Việt Nam

نئی تحقیق: AI انسانوں کی طرح 'وجہ' نہیں کرتا۔

مصنوعی ذہانت (AI) کے پروگراموں نے بہت سے متاثر کن کارنامے حاصل کیے ہیں، لیکن نئی تحقیق بتاتی ہے کہ ہمیں انسانوں کی طرح استدلال کرنے کی AI کی صلاحیت کو زیادہ نہیں سمجھنا چاہیے۔

Báo Tuổi TrẻBáo Tuổi Trẻ07/09/2025

trí tuệ nhân tạo - Ảnh 1.

مصنوعی ذہانت کے پروگراموں نے حالیہ برسوں میں بہت سی کامیابیاں حاصل کی ہیں - تصویر: REUTERS

ہم ان پٹ ڈیٹا سے لے کر بڑے لینگویج ماڈل (LLMs) کے آؤٹ پٹ نتائج تک پورے عمل کا مشاہدہ نہیں کر سکتے۔

اسے سمجھنے میں آسانی پیدا کرنے کے لیے، سائنس دانوں نے عام اصطلاحات کا استعمال کیا ہے جیسے "ریزننگ" یہ بیان کرنے کے لیے کہ یہ پروگرام کیسے کام کرتے ہیں۔ وہ یہ بھی کہتے ہیں کہ پروگرام "سوچ سکتے ہیں،" "وجہ" اور "سمجھ" سکتے ہیں اسی طرح جیسے انسان کرتے ہیں۔

AI کی صلاحیتوں کو بڑھا چڑھا کر پیش کرنا۔

6 ستمبر کو ZDNET کے مطابق، پچھلے دو سالوں میں، بہت سے AI ایگزیکٹوز نے سادہ تکنیکی کامیابیوں کو بڑھانے کے لیے مبالغہ آمیز زبان کا استعمال کیا ہے۔

ستمبر 2024 میں، OpenAI نے اعلان کیا کہ اس کا o1 استدلال کا ماڈل "مسائل کو حل کرتے وقت استدلال کا ایک سلسلہ استعمال کرتا ہے، جیسا کہ مشکل سوالات کا سامنا کرنے پر انسان طویل عرصے تک کیسے سوچتا ہے۔"

تاہم، AI سائنسدان اس سے متفق نہیں ہیں۔ ان کا استدلال ہے کہ AI انسان جیسی ذہانت کا مالک نہیں ہے۔

ایریزونا اسٹیٹ یونیورسٹی (USA) کے مصنفین کی ایک ٹیم کے ذریعہ arXiv ڈیٹا بیس پر مبنی ایک مطالعہ نے ایک سادہ تجربے کے ذریعے AI کی استدلال کی صلاحیت کا تجربہ کیا ہے۔

نتائج بتاتے ہیں کہ "سوچ کی ترتیب کے ذریعے حوالہ دینا ایک نازک وہم ہے،" ایک حقیقی منطقی طریقہ کار نہیں، بلکہ پیٹرن کے ملاپ کی محض ایک نفیس شکل ہے۔

اصطلاح "CoT" (Co-Thought Chain) AI کو نہ صرف حتمی جواب فراہم کرنے بلکہ منطقی استدلال کے ہر مرحلے کو پیش کرنے کی اجازت دیتی ہے، جیسا کہ GPT-o1 یا DeepSeek V1 جیسے ماڈلز میں ہے۔

Nghiên cứu mới: AI không 'suy luận' như con người - Ảnh 2.

OpenAI کے ذریعہ GPT-2 زبان کے ماڈل کی مثال - تصویر: ECHOCRAFTAI

چیک کریں کہ AI اصل میں کیا کرتا ہے۔

تحقیقی ٹیم نے بتایا کہ بڑے پیمانے پر ہونے والے تجزیوں سے پتہ چلتا ہے کہ LLM منطقی استدلال کے عمل کے بجائے سیمنٹکس اور سطحی اشارے پر زیادہ انحصار کرتا ہے۔

ٹیم نے وضاحت کی کہ "LLMs سیکھے ہوئے ان پٹ ایسوسی ایشنز کی بنیاد پر سطحی منطق کی ترتیب بناتے ہیں، اکثر ایسے کاموں میں ناکام رہتے ہیں جو روایتی استدلال کے طریقوں یا مانوس نمونوں سے ہٹ جاتے ہیں،" ٹیم نے وضاحت کی۔

اس مفروضے کو جانچنے کے لیے کہ LLM صرف نمونوں سے مماثل ہے اور حقیقت میں اندازہ نہیں لگا رہا ہے، تحقیقی ٹیم نے GPT-2 کو تربیت دی، جو OpenAI سے 2019 میں لانچ کیا گیا ایک اوپن سورس ماڈل ہے۔

ماڈل کو ابتدائی طور پر 26 انگریزی حروف پر مشتمل بہت آسان کاموں پر تربیت دی گئی تھی، جیسے کہ کچھ حروف کو دوبارہ ترتیب دینا، مثال کے طور پر، "APPLE" کو "EAPPL" میں تبدیل کرنا۔ پھر ٹیم نے کام کو تبدیل کیا اور GPT-2 کو اس پر کارروائی کرنے کو کہا۔

نتائج سے پتہ چلتا ہے کہ تربیتی ڈیٹا میں شامل نہ ہونے والے کاموں کے لیے، GPT-2 CoT کا استعمال کرتے ہوئے انہیں درست طریقے سے حل نہیں کر سکا۔

اس کے بجائے، ماڈل سیکھے ہوئے کاموں کو ممکنہ حد تک قریب سے لاگو کرنے کی کوشش کرتا ہے۔ لہٰذا، اس کی "استدلال" منطقی لگ سکتی ہے، لیکن نتائج اکثر غلط نکلتے ہیں۔

گروپ نے یہ نتیجہ اخذ کیا کہ کسی کو LLM کے جوابات پر بہت زیادہ بھروسہ نہیں کرنا چاہیے اور نہ ہی ان پر اندھا اعتماد کرنا چاہیے، کیونکہ وہ "بکواس لیکن انتہائی قابل اعتماد بیانات" پیش کر سکتے ہیں۔

انہوں نے AI کی اصل نوعیت کو سمجھنے، مبالغہ آرائی سے گریز کرنے اور اس خیال کو فروغ دینے کی ضرورت پر بھی زور دیا کہ AI میں انسان جیسی استدلال کی صلاحیتیں ہیں۔

واپس موضوع پر
اے این ایچ ٹی یو

ماخذ: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm


تبصرہ (0)

برائے مہربانی اپنی جذبات کا اظہار کرنے کے لیے تبصرہ کریں!

اسی موضوع میں

اسی زمرے میں

کرسمس تفریحی مقام ہو چی منہ شہر میں 7 میٹر پائن کے درخت کے ساتھ نوجوانوں میں ہلچل مچا رہا ہے
100 میٹر گلی میں کیا ہے جو کرسمس کے موقع پر ہلچل مچا رہا ہے؟
Phu Quoc میں 7 دن اور راتوں تک منعقد ہونے والی سپر ویڈنگ سے مغلوب
قدیم کاسٹیوم پریڈ: ایک سو پھولوں کی خوشی

اسی مصنف کی

ورثہ

پیکر

کاروبار

ڈان ڈین - تھائی نگوین کی نئی 'اسکائی بالکونی' نوجوان بادلوں کے شکاریوں کو راغب کرتی ہے۔

موجودہ واقعات

سیاسی نظام

مقامی

پروڈکٹ