हाल के वर्षों में कृत्रिम बुद्धिमत्ता कार्यक्रमों ने कई सफलताएँ हासिल की हैं - फोटो: रॉयटर्स
हम बड़े भाषा मॉडल (एलएलएम) के इनपुट डेटा से लेकर आउटपुट परिणाम तक की पूरी प्रक्रिया का निरीक्षण नहीं कर सकते।
इसे समझना आसान बनाने के लिए, वैज्ञानिकों ने इन प्रोग्रामों के काम करने के तरीके को समझाने के लिए "तर्क" जैसे सामान्य शब्दों का इस्तेमाल किया है। वे यह भी कहते हैं कि ये प्रोग्राम इंसानों की तरह "सोच", "तर्क" और "समझ" सकते हैं।
AI की क्षमताओं को बढ़ा-चढ़ाकर बताना
6 सितम्बर को ZDNET के अनुसार, पिछले दो वर्षों में, कई AI अधिकारियों ने सरल तकनीकी उपलब्धियों को बढ़ा-चढ़ाकर बताने के लिए अतिशयोक्ति का प्रयोग किया है।
सितंबर 2024 में, ओपनएआई ने घोषणा की कि o1 तर्क मॉडल "समस्याओं को हल करते समय अनुमान की एक श्रृंखला का उपयोग करता है, जिस तरह से मनुष्य कठिन प्रश्नों का सामना करते समय लंबे समय तक सोचते हैं।"
हालाँकि, एआई वैज्ञानिक इस पर आपत्ति जताते हैं। उनका मानना है कि एआई में मानवीय बुद्धि नहीं होती।
एरिजोना स्टेट यूनिवर्सिटी (अमेरिका) के लेखकों के एक समूह द्वारा arXiv डेटाबेस पर किए गए एक अध्ययन ने एक सरल प्रयोग के साथ AI की तर्क क्षमता को सत्यापित किया है।
परिणामों से पता चला कि "विचार श्रृंखला द्वारा अनुमान एक नाजुक भ्रम है", यह कोई वास्तविक तार्किक तंत्र नहीं है, बल्कि पैटर्न मिलान का एक परिष्कृत रूप मात्र है।
शब्द "विचार की श्रृंखला" (सीओटी) एआई को न केवल अंतिम उत्तर देने की अनुमति देता है, बल्कि तार्किक तर्क के प्रत्येक चरण को भी प्रस्तुत करता है, जैसा कि जीपीटी-ओ1 या डीपसीक वी1 मॉडल में है।
ओपनएआई के GPT-2 भाषा मॉडल का चित्रण - फोटो: ECHOCRAFTAI
देखें कि AI वास्तव में क्या करता है
शोधकर्ताओं का कहना है कि बड़े पैमाने पर किए गए विश्लेषण से पता चलता है कि एलएलएम तार्किक तर्क प्रक्रियाओं के बजाय शब्दार्थ और सतही संकेतों पर निर्भर करता है।
टीम ने बताया कि, "एलएलएम सीखे गए इनपुट एसोसिएशनों के आधार पर सतही तर्क श्रृंखलाओं का निर्माण करता है, जो अक्सर उन कार्यों में विफल हो जाता है जो पारंपरिक तर्क विधियों या परिचित पैटर्न से विचलित होते हैं।"
इस परिकल्पना का परीक्षण करने के लिए कि एलएलएम केवल पैटर्न का मिलान कर रहा था और वास्तव में अनुमान नहीं लगा रहा था, टीम ने 2019 में ओपनएआई द्वारा जारी एक ओपन-सोर्स मॉडल जीपीटी-2 को प्रशिक्षित किया।
मॉडल को शुरुआत में 26 अंग्रेज़ी अक्षरों पर बहुत ही सरल कार्यों के लिए प्रशिक्षित किया गया था, जैसे कुछ अक्षरों को उलटना, उदाहरण के लिए "APPLE" को "EAPPL" में बदलना। फिर टीम ने कार्य बदल दिया और GPT-2 को इसे संभालने के लिए कहा।
परिणाम दर्शाते हैं कि प्रशिक्षण डेटा में शामिल नहीं किए गए कार्यों को GPT-2 CoT का उपयोग करके सटीक रूप से हल नहीं कर सकता है।
इसके बजाय, मॉडल सबसे समान सीखे गए कार्यों को लागू करने का प्रयास करता है। इसलिए इसके "अनुमान" भले ही उचित लगें, लेकिन परिणाम अक्सर गलत होते हैं।
समूह ने निष्कर्ष निकाला कि किसी को एलएलएम के उत्तरों पर बहुत अधिक भरोसा नहीं करना चाहिए या उन पर आंख मूंदकर भरोसा नहीं करना चाहिए, क्योंकि वे "ऐसी बकवास बातें उत्पन्न कर सकते हैं जो बहुत विश्वसनीय लगती हैं।"
उन्होंने एआई की वास्तविक प्रकृति को समझने, अतिश्योक्ति से बचने तथा यह प्रचार बंद करने की आवश्यकता पर भी बल दिया कि एआई में मनुष्यों की तरह तर्क करने की क्षमता है।
स्रोत: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm
टिप्पणी (0)