
अप्रैल में, प्रोग्रामर्स के लिए उभरते टूल, कर्सर के लिए तकनीकी सहायता संभालने वाले एक एआई बॉट ने कुछ ग्राहकों को कंपनी की नीति में बदलाव के बारे में सूचित किया, जिसमें विशेष रूप से कहा गया कि अब उन्हें एक से अधिक कंप्यूटर पर कर्सर का उपयोग करने की अनुमति नहीं है।
ग्राहकों ने फ़ोरम और सोशल मीडिया पर अपना गुस्सा ज़ाहिर किया। कुछ ने तो अपने कर्सर अकाउंट भी रद्द कर दिए। लेकिन कुछ लोग तब और भी ज़्यादा नाराज़ हो गए जब उन्हें पता चला कि क्या हुआ था: एआई बॉट ने एक ऐसी नीतिगत बदलाव की सूचना दी थी जो असल में थी ही नहीं।
कंपनी के सीईओ और सह-संस्थापक माइकल ट्रूएल ने रेडिट पर एक पोस्ट में लिखा, "हमारी ऐसी कोई नीति नहीं है। आप कर्सर का इस्तेमाल बेशक कई मशीनों पर कर सकते हैं। दुर्भाग्य से, यह एक एआई-संचालित बॉट की ओर से एक गलत प्रतिक्रिया थी।"
फर्जी सूचनाएं नियंत्रण से बाहर हो गई हैं।
चैटजीपीटी के लॉन्च के दो साल से अधिक समय बाद, तकनीकी कंपनियां, कार्यालय कर्मचारी और रोजमर्रा के उपभोक्ता बढ़ती आवृत्ति के साथ विभिन्न कार्यों के लिए एआई बॉट्स का उपयोग कर रहे हैं।
फिर भी, यह सुनिश्चित करने का कोई तरीका नहीं है कि ये प्रणालियाँ सटीक जानकारी दे रही हैं। विडंबना यह है कि ओपनएआई, गूगल और डीपसीक जैसी कंपनियों की "अनुमान" प्रणालियाँ कहलाने वाली सबसे शक्तिशाली नई तकनीकें ज़्यादा गलतियाँ कर रही हैं।
![]() |
बेतुकी चैटजीपीटी बातचीत जिसमें उपयोगकर्ता पूछता है कि क्या कुत्तों को अनाज खाना चाहिए। फोटो: रेडिट। |
गणितीय कौशल में नाटकीय रूप से सुधार हुआ है, लेकिन बड़े भाषा मॉडल (एलएलएम) की सच्चाई को पकड़ने की क्षमता कमज़ोर होती जा रही है। हैरानी की बात यह है कि खुद इंजीनियर भी पूरी तरह से समझ नहीं पा रहे हैं कि ऐसा क्यों हो रहा है।
न्यूयॉर्क टाइम्स के अनुसार, आज के एआई चैटबॉट्स भारी मात्रा में डिजिटल डेटा का विश्लेषण करके कौशल सीखने के लिए जटिल गणितीय प्रणालियों पर निर्भर करते हैं। हालाँकि, वे यह तय नहीं कर पाते कि क्या सही है और क्या गलत।
यहीं से, "मतिभ्रम" या जानकारी के स्व-निर्माण की स्थिति उत्पन्न होती है। वास्तव में, शोध के अनुसार, एलएलएम की नवीनतम पीढ़ी कुछ पुराने मॉडलों की तुलना में अधिक "मतिभ्रम" करती है।
विशेष रूप से, नवीनतम रिपोर्ट में, ओपनएआई ने पाया कि o3 मॉडल ने पर्सनक्यूए पर 33% प्रश्नों का उत्तर देते समय "मतिभ्रम" किया, जो कि कंपनी का मनुष्यों के बारे में मॉडल के ज्ञान की सटीकता को मापने का आंतरिक मानक है।
तुलना के लिए, यह ओपनएआई के पिछले तर्क मॉडल, o1 और o3-मिनी, की "मतिभ्रम" दर से दोगुना है, जो क्रमशः 16% और 14.8% तक प्रभावित हुए थे। वहीं, o4-मिनी मॉडल ने पर्सनक्यूए पर और भी खराब प्रदर्शन किया, जहाँ 48% समय "मतिभ्रम" का सामना करना पड़ा।
इससे भी ज़्यादा चिंता की बात यह है कि "चैटजीपीटी के जनक" को वास्तव में यह नहीं पता कि ऐसा क्यों होता है। विशेष रूप से, o3 और o4-mini पर तकनीकी रिपोर्ट में, OpenAI लिखता है कि "यह समझने के लिए और शोध की आवश्यकता है कि तर्क मॉडल के बढ़ने के साथ "भ्रम" क्यों बदतर होता जाता है।"
o3 और o4-mini ने प्रोग्रामिंग और गणित से जुड़े कार्यों सहित कुछ क्षेत्रों में बेहतर प्रदर्शन किया। हालाँकि, चूँकि उन्हें "सामान्यीकरण की तुलना में अधिक कथन बनाने" की आवश्यकता थी, इसलिए दोनों मॉडलों को "अधिक सही कथन, लेकिन अधिक गलत कथन" देने में कठिनाई हुई।
"यह कभी नहीं जाएगा"
मानव इंजीनियरों द्वारा निर्धारित सख्त नियमों के बजाय, एलएलएम प्रणालियाँ सर्वोत्तम उत्तर का अनुमान लगाने के लिए गणितीय प्रायिकता का उपयोग करती हैं। इसलिए वे हमेशा कुछ न कुछ त्रुटियाँ करती हैं।
गूगल के पूर्व कार्यकारी अमर अवदल्लाह ने कहा, "हमारे सर्वोत्तम प्रयासों के बावजूद, एआई मॉडल हमेशा भ्रामक ही रहेंगे। यह कभी खत्म नहीं होगा।"
![]() |
आईबीएम के अनुसार, मतिभ्रम एक ऐसी घटना है जिसमें बड़े भाषा मॉडल (एलएलएम) - आमतौर पर चैटबॉट या कंप्यूटर विज़न टूल - ऐसे डेटा पैटर्न प्राप्त करते हैं जो मौजूद नहीं होते या मनुष्यों के लिए पहचानने योग्य नहीं होते, जिससे अर्थहीन या भ्रामक परिणाम उत्पन्न होते हैं। फोटो: iStock |
प्रयोगों के बारे में एक विस्तृत पत्र में, ओपनएआई ने कहा कि इन परिणामों के कारणों को समझने के लिए और अधिक शोध की आवश्यकता है।
विशेषज्ञों का कहना है कि चूंकि एआई प्रणालियां मनुष्यों की समझ से कहीं अधिक मात्रा में डेटा से सीखती हैं, इसलिए यह निर्धारित करना कठिन हो सकता है कि वे इस तरह से व्यवहार क्यों करते हैं।
ओपनएआई के प्रवक्ता गैबी रैला ने कहा, "अनुमान मॉडल में भ्रम स्वाभाविक रूप से ज़्यादा आम हैं, हालाँकि हम o3 और o4-mini में देखी गई घटनाओं को कम करने के लिए सक्रिय रूप से काम कर रहे हैं। हम सटीकता और विश्वसनीयता में सुधार के लिए सभी मॉडलों में भ्रम पर काम करना जारी रखेंगे।"
अनेक स्वतंत्र कम्पनियों और शोधकर्ताओं द्वारा किए गए परीक्षणों से पता चलता है कि गूगल या डीपसीक जैसी कम्पनियों के अनुमान मॉडलों के लिए भी मतिभ्रम की दर बढ़ रही है।
2023 के अंत से, अवदल्लाह की कंपनी, वेक्टरा, इस बात पर नज़र रख रही है कि चैटबॉट कितनी बार जानकारी को गलत तरीके से पेश कर रहे हैं। कंपनी ने सिस्टम से विशिष्ट समाचार लेखों का सारांश तैयार करने का एक सरल, आसानी से सत्यापित कार्य करने को कहा था। फिर भी, चैटबॉट जानकारी गढ़ने में लगे रहे।
विशेष रूप से, वेक्टरा के प्रारंभिक शोध ने अनुमान लगाया कि इस परिदृश्य में, चैटबॉट्स ने कम से कम 3% समय में जानकारी गढ़ी, और कभी-कभी 27% तक।
पिछले डेढ़ साल में, ओपनएआई और गूगल जैसी कंपनियों ने इन आंकड़ों को घटाकर लगभग 1 या 2% कर दिया है। सैन फ्रांसिस्को की स्टार्टअप कंपनी एंथ्रोपिक जैसी अन्य कंपनियों का यह आंकड़ा लगभग 4% है।
हालाँकि, इस परीक्षण में अनुमान प्रणालियों के लिए मतिभ्रम की दर में वृद्धि जारी रही। डीपसीक के R1 अनुमान प्रणाली के लिए मतिभ्रम की आवृत्ति में 14.3% की वृद्धि हुई, जबकि ओपनएआई के o3 में 6.8% की वृद्धि हुई।
एक अन्य समस्या यह है कि अनुमान मॉडल को इस प्रकार डिजाइन किया जाता है कि अंतिम उत्तर तक पहुंचने से पहले जटिल समस्याओं के बारे में सोचने में समय व्यतीत करना पड़ता है।
![]() |
Apple ने macOS 15.1 के पहले परीक्षण संस्करण में AI को जानकारी गढ़ने से रोकने के लिए एक प्रॉम्प्ट डाला था। फोटो: Reddit/devanxd2000. |
हालाँकि, इसका नकारात्मक पक्ष यह है कि जैसे-जैसे एआई मॉडल समस्या को चरणबद्ध तरीके से हल करने की कोशिश करता है, वह हर कदम पर भ्रम के प्रति अधिक संवेदनशील होता जाता है। इससे भी महत्वपूर्ण बात यह है कि जैसे-जैसे मॉडल सोचने में अधिक समय लगाता है, त्रुटियाँ बढ़ती जा सकती हैं।
नवीनतम बॉट उपयोगकर्ताओं को प्रत्येक चरण दिखाते हैं, जिसका अर्थ है कि उपयोगकर्ता प्रत्येक त्रुटि भी देख सकते हैं। शोधकर्ताओं ने यह भी पाया कि कई मामलों में, चैटबॉट द्वारा दिखाई गई विचार प्रक्रिया वास्तव में उसके द्वारा दिए गए अंतिम उत्तर से असंबंधित होती है।
एडिनबर्ग विश्वविद्यालय में एआई शोधकर्ता और एंथ्रोपिक में सहयोगी आर्यो प्रदीप्ता गेमा कहते हैं, "सिस्टम जो कहता है, वह जरूरी नहीं कि वह वास्तव में वही सोच रहा हो।"
स्रोत: https://znews.vn/chatbot-ai-dang-tro-nen-dien-hon-post1551304.html













टिप्पणी (0)