
कृत्रिम बुद्धिमत्ता कार्यक्रमों ने हाल के वर्षों में कई महत्वपूर्ण उपलब्धियां हासिल की हैं - फोटो: रॉयटर्स
हम बड़े भाषा मॉडलों (एलएलएम) के इनपुट डेटा से लेकर आउटपुट तक की पूरी प्रक्रिया का अवलोकन नहीं कर सकते हैं।
इसे आसानी से समझाने के लिए, वैज्ञानिकों ने इन प्रोग्रामों के काम करने के तरीके को बताने के लिए "तर्क" जैसे सामान्य शब्दों का इस्तेमाल किया है। वे यह भी कहते हैं कि ये प्रोग्राम मनुष्यों की तरह ही "सोच" सकते हैं, "तर्क कर सकते हैं" और "समझ" सकते हैं।
कृत्रिम बुद्धिमत्ता की क्षमताओं को बढ़ा-चढ़ाकर बताना।
जेडडीनेट के अनुसार, पिछले दो वर्षों में, कई एआई अधिकारियों ने सरल तकनीकी उपलब्धियों को बढ़ा-चढ़ाकर पेश करने के लिए अतिरंजित भाषा का इस्तेमाल किया है।
सितंबर 2024 में, OpenAI ने घोषणा की कि उसका o1 रीजनिंग मॉडल "समस्याओं को हल करते समय तर्क की एक श्रृंखला का उपयोग करता है, ठीक उसी तरह जैसे मनुष्य कठिन प्रश्नों का सामना करते समय लंबे समय तक सोचते हैं।"
हालांकि, एआई वैज्ञानिक इससे असहमत हैं। उनका तर्क है कि एआई में मानव जैसी बुद्धिमत्ता नहीं होती।
अमेरिका के एरिजोना स्टेट यूनिवर्सिटी के लेखकों की एक टीम द्वारा arXiv डेटाबेस पर आधारित एक अध्ययन में एक सरल प्रयोग के माध्यम से कृत्रिम बुद्धिमत्ता की तर्क क्षमता का परीक्षण किया गया है।
परिणाम बताते हैं कि "विचार अनुक्रमों के माध्यम से संदर्भ देना एक नाजुक भ्रम है," यह एक सच्चा तार्किक तंत्र नहीं है, बल्कि केवल पैटर्न मिलान का एक परिष्कृत रूप है।
"CoT" (सह-विचार श्रृंखला) शब्द एआई को न केवल अंतिम उत्तर प्रदान करने की अनुमति देता है, बल्कि तार्किक तर्क के प्रत्येक चरण को प्रस्तुत करने की भी अनुमति देता है, जैसा कि GPT-o1 या DeepSeek V1 जैसे मॉडल में होता है।

ओपनएआई द्वारा विकसित जीपीटी-2 भाषा मॉडल का चित्रण - फोटो: इकोक्राफ्टएआई
जानिए एआई वास्तव में क्या करता है।
शोध दल ने कहा कि बड़े पैमाने पर किए गए विश्लेषणों से पता चला है कि एलएलएम तार्किक तर्क प्रक्रियाओं की तुलना में अर्थ और सतही संकेतों पर अधिक निर्भर करता है।
टीम ने बताया, "एलएलएम सीखे हुए इनपुट एसोसिएशन के आधार पर सतही तर्क अनुक्रमों का निर्माण करते हैं, और अक्सर उन कार्यों में विफल हो जाते हैं जो पारंपरिक तर्क विधियों या परिचित पैटर्न से विचलित होते हैं।"
इस परिकल्पना का परीक्षण करने के लिए कि एलएलएम केवल पैटर्न का मिलान कर रहा है और वास्तव में कोई निष्कर्ष नहीं निकाल रहा है, शोध टीम ने GPT-2 को प्रशिक्षित किया, जो OpenAI द्वारा 2019 में लॉन्च किया गया एक ओपन-सोर्स मॉडल है।
शुरुआत में इस मॉडल को 26 अंग्रेजी अक्षरों से जुड़े बहुत ही सरल कार्यों पर प्रशिक्षित किया गया था, जैसे कि कुछ अक्षरों को पुनर्व्यवस्थित करना, उदाहरण के लिए, "APPLE" को "EAPPL" में बदलना। फिर टीम ने कार्य को बदल दिया और GPT-2 को इसे संसाधित करने के लिए कहा।
परिणामों से पता चला कि प्रशिक्षण डेटा में शामिल नहीं किए गए कार्यों के लिए, GPT-2 CoT का उपयोग करके उन्हें सटीक रूप से हल नहीं कर सका।
इसके बजाय, मॉडल सीखे गए कार्यों को यथासंभव सटीक रूप से लागू करने का प्रयास करता है। इसलिए, इसकी "तर्क प्रक्रिया" तार्किक लग सकती है, लेकिन परिणाम अक्सर गलत होते हैं।
समूह ने निष्कर्ष निकाला कि एलएलएम के उत्तरों पर बहुत अधिक भरोसा नहीं करना चाहिए या उन पर आँख बंद करके विश्वास नहीं करना चाहिए, क्योंकि वे "बेतुके लेकिन बहुत ही विश्वसनीय बयान" दे सकते हैं।
उन्होंने एआई की वास्तविक प्रकृति को समझने, अतिशयोक्ति से बचने और इस विचार को बढ़ावा देना बंद करने की आवश्यकता पर भी जोर दिया कि एआई में मानव जैसी तर्क क्षमताएं हैं।
स्रोत: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm






टिप्पणी (0)