Vietnam.vn - Nền tảng quảng bá Việt Nam

نئی تحقیق: AI انسانوں کی طرح 'وجہ' نہیں کرتا

مصنوعی ذہانت (AI) کے پروگراموں نے متاثر کن نتائج حاصل کیے ہیں، لیکن نئی تحقیق بتاتی ہے کہ ہمیں اس دعوے کو زیادہ نہیں بڑھانا چاہیے کہ AI انسانوں کی طرح سوچ سکتا ہے۔

Báo Tuổi TrẻBáo Tuổi Trẻ07/09/2025

trí tuệ nhân tạo - Ảnh 1.

مصنوعی ذہانت کے پروگراموں نے حالیہ برسوں میں بہت سی کامیابیاں حاصل کی ہیں۔ تصویر: REUTERS

ہم ان پٹ ڈیٹا سے لے کر بڑے لینگویج ماڈل (LLMs) کے آؤٹ پٹ نتائج تک پورے عمل کا مشاہدہ نہیں کر سکتے۔

اسے سمجھنے میں آسانی پیدا کرنے کے لیے، سائنسدانوں نے عام اصطلاحات کا استعمال کیا ہے جیسے "استدلال" یہ بیان کرنے کے لیے کہ یہ پروگرام کیسے کام کرتے ہیں۔ وہ یہ بھی کہتے ہیں کہ پروگرام "سوچ سکتے ہیں،" "وجہ" اور "سمجھ" سکتے ہیں جس طرح انسان کرتے ہیں۔

AI کی صلاحیتوں کو بڑھاوا دینا

6 ستمبر کو ZDNET کے مطابق، پچھلے دو سالوں میں، بہت سے AI ایگزیکٹوز نے سادہ تکنیکی کامیابیوں کو بڑھا چڑھا کر پیش کرنے کے لیے ہائپربول کا استعمال کیا ہے۔

ستمبر 2024 میں، اوپن اے آئی نے اعلان کیا کہ o1 استدلال کا ماڈل "مسائل کو حل کرتے وقت اندازہ کی ایک زنجیر کا استعمال کرتا ہے، جیسا کہ مشکل سوالات کا سامنا کرنے پر انسان طویل عرصے تک سوچتے ہیں۔"

تاہم، AI سائنسدانوں نے اعتراض کیا. ان کا ماننا ہے کہ اے آئی میں انسانی ذہانت نہیں ہے۔

ایریزونا اسٹیٹ یونیورسٹی (USA) کے مصنفین کے ایک گروپ کے ذریعہ arXiv ڈیٹا بیس پر ایک مطالعہ نے ایک سادہ تجربے کے ساتھ AI کی استدلال کی صلاحیت کی تصدیق کی ہے۔

نتائج سے پتہ چلتا ہے کہ "خیال کی زنجیر سے اندازہ لگانا ایک نازک وہم ہے"، ایک حقیقی منطقی طریقہ کار نہیں ہے، بلکہ پیٹرن کے ملاپ کی صرف ایک نفیس شکل ہے۔

اصطلاح "چین کی سوچ" (CoT) AI کو نہ صرف حتمی جواب کے ساتھ آنے کی اجازت دیتی ہے بلکہ منطقی استدلال کے ہر مرحلے کو بھی پیش کرتی ہے، جیسا کہ GPT-o1 یا DeepSeek V1 ماڈلز میں ہے۔

Nghiên cứu mới: AI không 'suy luận' như con người - Ảnh 2.

OpenAI کے GPT-2 زبان کے ماڈل کی مثال - تصویر: ECHOCRAFTAI

چیک کریں کہ AI اصل میں کیا کرتا ہے۔

محققین کا کہنا ہے کہ بڑے پیمانے پر ہونے والے تجزیوں سے پتہ چلتا ہے کہ ایل ایل ایم منطقی استدلال کے عمل کے بجائے سیمنٹکس اور سطحی اشارے پر انحصار کرتا ہے۔

"LLM سیکھے ہوئے ان پٹ ایسوسی ایشنز کی بنیاد پر سطحی منطق کی زنجیریں بناتا ہے، اکثر ایسے کاموں میں ناکام رہتا ہے جو روایتی استدلال کے طریقوں یا مانوس نمونوں سے ہٹ جاتے ہیں،" ٹیم بتاتی ہے۔

اس مفروضے کو جانچنے کے لیے کہ LLM صرف نمونوں سے مماثلت رکھتا ہے اور حقیقت میں اندازہ نہیں لگاتا، ٹیم نے 2019 میں OpenAI کے ذریعہ جاری کردہ ایک اوپن سورس ماڈل GPT-2 کو تربیت دی۔

ماڈل کو ابتدائی طور پر 26 انگریزی حروف پر بہت آسان کاموں پر تربیت دی گئی تھی، جیسے کچھ حروف کو الٹنا، مثال کے طور پر "APPLE" کو "EAPPL" میں تبدیل کرنا۔ پھر ٹیم نے ٹاسک تبدیل کیا اور GPT-2 کو اسے سنبھالنے کو کہا۔

نتائج سے پتہ چلتا ہے کہ جن کاموں کو تربیتی ڈیٹا میں شامل نہیں کیا گیا ہے، GPT-2 انہیں CoT کا استعمال کرتے ہوئے درست طریقے سے حل نہیں کر سکتا۔

اس کے بجائے، ماڈل سب سے زیادہ اسی طرح کے سیکھے ہوئے کاموں کو لاگو کرنے کی کوشش کرتا ہے۔ لہٰذا اس کے "تشخیصات" معقول لگ سکتے ہیں، لیکن نتائج اکثر غلط ہوتے ہیں۔

گروپ نے یہ نتیجہ اخذ کیا کہ کسی کو زیادہ بھروسہ نہیں کرنا چاہیے اور نہ ہی LLM کے جوابات پر آنکھیں بند کر کے بھروسہ کرنا چاہیے، کیونکہ وہ "بکواس جو بہت قائل ہو" پیدا کر سکتے ہیں۔

انہوں نے AI کی اصل نوعیت کو سمجھنے، ہائپ سے بچنے اور اس بات کو فروغ دینے سے روکنے کی ضرورت پر بھی زور دیا کہ AI میں انسانوں کی طرح استدلال کرنے کی صلاحیت ہے۔

واپس موضوع پر
اے این ایچ ٹی یو

ماخذ: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm


تبصرہ (0)

No data
No data

اسی موضوع میں

اسی زمرے میں

لوک ہون وادی میں حیرت انگیز طور پر خوبصورت چھت والے کھیت
20 اکتوبر کو 1 ملین VND کی لاگت والے 'امیر' پھول اب بھی مقبول ہیں۔
ویتنامی فلمیں اور آسکر کا سفر
نوجوان لوگ سال کے سب سے خوبصورت چاول کے موسم میں چیک ان کرنے کے لیے شمال مغرب جاتے ہیں۔

اسی مصنف کی

ورثہ

پیکر

کاروبار

نوجوان لوگ سال کے سب سے خوبصورت چاول کے موسم میں چیک ان کرنے کے لیے شمال مغرب جاتے ہیں۔

موجودہ واقعات

سیاسی نظام

مقامی

پروڈکٹ