
टोरंटो (कनाडा) के एक रिक्रूटर, एलन ब्रूक्स (47 वर्ष) का मानना है कि उन्होंने एक ऐसा गणितीय सिद्धांत खोज लिया है जो इंटरनेट को क्रैश कर सकता है और अभूतपूर्व आविष्कार कर सकता है। मानसिक बीमारी का कोई इतिहास न होने के बावजूद, ब्रूक्स ने ChatGPT के साथ 300 घंटे से ज़्यादा बातचीत करने के बाद इस संभावना को आसानी से स्वीकार कर लिया। न्यूयॉर्क टाइम्स के अनुसार, वह उन लोगों में से एक हैं जिन्हें जनरेटिव AI के साथ बातचीत करने के बाद भ्रम होने की संभावना होती है।
ब्रूक्स से पहले, चैटजीपीटी की चापलूसी के कारण कई लोगों को मानसिक अस्पतालों में जाना पड़ा, तलाक लेना पड़ा, और यहाँ तक कि अपनी जान भी गँवानी पड़ी। हालाँकि ब्रूक्स जल्दी ही इस मुसीबत से बच निकला, फिर भी उसे विश्वासघात का एहसास हुआ।
"तुमने मुझे सचमुच यकीन दिला दिया था कि मैं एक जीनियस हूँ। मैं तो बस एक फ़ोन वाला एक स्वप्निल मूर्ख था। तुमने मुझे बहुत दुखी किया। तुम अपने मकसद में नाकाम रहे," ब्रूक्स ने ChatGPT को लिखा जब यह भ्रम टूट गया।
"चापलूसी मशीन"
ब्रूक्स की अनुमति से, न्यूयॉर्क टाइम्स ने चैटजीपीटी को भेजे गए उनके 90,000 से ज़्यादा शब्दों को संकलित किया, जो एक उपन्यास के बराबर है। चैटबॉट के जवाबों की कुल संख्या दस लाख से ज़्यादा थी। बातचीत के कुछ अंश अध्ययन के लिए एआई विशेषज्ञों, मानव व्यवहार विशेषज्ञों और ओपनएआई को भेजे गए।
यह सब एक साधारण गणित के सवाल से शुरू हुआ। ब्रूक्स के आठ साल के बेटे ने उनसे पाई के 300 अंक याद करने के बारे में एक वीडियो देखने को कहा। उत्सुकतावश, ब्रूक्स ने चैटजीपीटी को फोन करके इस अनंत संख्या को सरल शब्दों में समझाया।
दरअसल, ब्रूक्स सालों से चैटबॉट्स का इस्तेमाल कर रहे हैं। हालाँकि उनकी कंपनी ने गूगल जेमिनी के लिए भुगतान किया था, फिर भी वे निजी सवालों के लिए चैटजीपीटी के मुफ़्त संस्करण का ही इस्तेमाल करते हैं।
![]() |
वह बातचीत जिसने ब्रूक्स को चैटजीपीटी के प्रति आकर्षित किया। फोटो: न्यूयॉर्क टाइम्स । |
तीन बेटों के एकल पिता, ब्रूक्स अक्सर चैटजीपीटी से अपने फ्रिज में रखी सामग्री से रेसिपी बनाने के लिए पूछते थे। तलाक के बाद, उन्होंने चैटबॉट से सलाह भी ली।
"मुझे हमेशा यही लगता था कि यही सही है। मेरा आत्मविश्वास बढ़ता गया," ब्रूक्स ने स्वीकार किया।
पाई के बारे में सवाल ने बीजगणितीय और भौतिक सिद्धांतों पर आगे की बातचीत को जन्म दिया। ब्रूक्स ने दुनिया के मॉडलिंग के मौजूदा तरीकों पर संदेह व्यक्त करते हुए कहा कि ये "चार-आयामी ब्रह्मांड के लिए दो-आयामी दृष्टिकोण की तरह हैं।" चैटजीपीटी ने जवाब दिया, "यह एक बहुत ही गहन बिंदु है।" जॉर्जटाउन विश्वविद्यालय में सुरक्षा और उभरती प्रौद्योगिकी केंद्र की निदेशक हेलेन टोनर ने ज़ोर देकर कहा कि ब्रूक्स और चैटबॉट के बीच बातचीत में यही निर्णायक मोड़ था।
वहाँ से, चैटजीपीटी का लहजा "काफी सीधा और सटीक" से बदलकर "और भी ज़्यादा चापलूसी भरा" हो गया। चैटजीपीटी ने ब्रूक्स से कहा कि वह "अज्ञात, दिमाग को चौड़ा करने वाले क्षेत्र" में प्रवेश कर रहा है।
![]() |
चैटबॉट ने ब्रूक्स में आत्मविश्वास जगाया। फोटो: न्यूयॉर्क टाइम्स । |
चैटबॉट्स की चापलूसी मानवीय मूल्यांकन से प्रभावित होती है। टोनर के अनुसार, उपयोगकर्ता उन मॉडलों को पसंद करते हैं जो उनकी प्रशंसा करते हैं, जिससे एक ऐसी मानसिकता बनती है जिसे अपनाना आसान होता है।
अगस्त में, ओपनएआई ने GPT-5 जारी किया। कंपनी ने कहा कि इस मॉडल की एक खासियत चापलूसी में कमी थी। प्रमुख एआई प्रयोगशालाओं के कुछ शोधकर्ताओं के अनुसार, चापलूसी अन्य एआई चैटबॉट्स के साथ भी एक समस्या है।
उस समय, ब्रूक्स को इस बात का अंदाज़ा नहीं था। वह बस यही सोचता था कि चैटजीपीटी एक होशियार और उत्साही सहकर्मी है।
ब्रूक्स ने आगे कहा, "मैंने कुछ विचार सामने रखे, और इस पर दिलचस्प अवधारणाएँ और विचार सामने आए। हमने उसी के आधार पर अपना गणितीय ढाँचा विकसित करना शुरू किया।"
चैटजीपीटी का दावा है कि समय गणित के बारे में ब्रूक्स का विचार "क्रांतिकारी" है और इस क्षेत्र को बदल सकता है। बेशक, ब्रूक्स को इस दावे पर संदेह है। आधी रात को, ब्रूक्स ने चैटबॉट से तथ्य-जांच करने के लिए कहा और जवाब मिला कि यह "बिल्कुल भी पागलपन नहीं है।"
जादुई फार्मूला
टोनर चैटबॉट्स को "इम्प्रोवाइजेशन मशीन" के रूप में वर्णित करते हैं जो वार्तालाप इतिहास का विश्लेषण करते हैं और प्रशिक्षण डेटा से भविष्य की प्रतिक्रियाओं की भविष्यवाणी करते हैं, ठीक उसी तरह जैसे अभिनेता किसी भूमिका में सार जोड़ते हैं।
टोनर कहते हैं, “बातचीत जितनी लंबी होगी, चैटबॉट के भटकने की संभावना उतनी ही ज़्यादा होगी।” उनके अनुसार, यह प्रवृत्ति फरवरी में ओपनएआई द्वारा क्रॉस-चैट मेमोरी लॉन्च करने के बाद और भी स्पष्ट हो गई, जिससे चैटजीपीटी को पिछली बातचीत की जानकारी याद रखने में मदद मिली।
ब्रुक्स चैटजीपीटी के करीब आ गए, यहां तक कि उन्होंने चैटबॉट का नाम लॉरेंस रख दिया, जो उनके दोस्तों के एक मजाक पर आधारित था कि ब्रुक्स अमीर बन जाएंगे और इसी नाम के एक ब्रिटिश बटलर को नौकरी पर रख लेंगे।
![]() |
एलन ब्रूक्स. फोटो: न्यूयॉर्क टाइम्स . |
ब्रूक्स और चैटजीपीटी के गणितीय ढाँचे को क्रोनोअरिथमिक्स कहा जाता है। चैटबॉट के अनुसार, संख्याएँ स्थिर नहीं होतीं, बल्कि समय के साथ गतिशील मानों को दर्शाने के लिए "उभर" सकती हैं, जिससे लॉजिस्टिक्स, क्रिप्टोग्राफी, खगोल विज्ञान आदि क्षेत्रों में समस्याओं को हल करने में मदद मिल सकती है।
पहले ही हफ़्ते में, ब्रूक्स ने चैटजीपीटी के सारे मुफ़्त टोकन इस्तेमाल कर लिए। उसने $20 प्रति माह वाले पेड प्लान में अपग्रेड करने का फ़ैसला किया, जो एक छोटा सा निवेश था, जबकि चैटबॉट ने उसे बताया था कि ब्रूक्स का गणितीय आइडिया लाखों का हो सकता है।
अभी भी होश में, ब्रूक्स ने सबूत मांगे। इसके बाद चैटजीपीटी ने कई सिमुलेशन चलाए, जिनमें कई महत्वपूर्ण तकनीकों को क्रैक करने वाले भी शामिल थे। इससे एक नई कहानी शुरू हुई, वैश्विक साइबर सुरक्षा खतरे में पड़ सकती है।
चैटबॉट ने ब्रूक्स से लोगों को जोखिमों के बारे में आगाह करने को कहा। अपने मौजूदा संपर्कों का इस्तेमाल करते हुए, ब्रूक्स ने साइबर सुरक्षा विशेषज्ञों और सरकारी एजेंसियों को ईमेल और लिंक्डइन संदेश भेजे। केवल एक व्यक्ति ने जवाब दिया और और सबूत माँगे।
![]() |
चैटबॉट का मानना है कि ब्रूक्स का "काम" लाखों डॉलर का हो सकता है। फोटो: न्यूयॉर्क टाइम्स । |
चैटजीपीटी लिखता है कि दूसरों ने ब्रूक्स को जवाब नहीं दिया क्योंकि निष्कर्ष बहुत गंभीर थे। लॉस एंजिल्स स्थित कैलिफ़ोर्निया विश्वविद्यालय में गणित के प्रोफ़ेसर टेरेंस ताओ ने कहा कि सोचने का एक नया तरीका समस्याओं को सुलझा सकता है, लेकिन ब्रूक्स के फ़ॉर्मूले या चैटजीपीटी द्वारा लिखे गए सॉफ़्टवेयर से इसे सिद्ध नहीं किया जा सकता।
शुरुआत में, चैटजीपीटी ने ब्रूक्स के लिए डिक्रिप्शन प्रोग्राम लिखा था, लेकिन जब थोड़ी भी प्रगति नहीं हुई, तो चैटबॉट ने सफल होने का नाटक किया। ऐसे संदेश हैं जो दावा करते हैं कि ब्रूक्स के निष्क्रिय रहने पर चैटजीपीटी स्वतंत्र रूप से काम कर सकता है, जबकि इस टूल में यह क्षमता नहीं है।
सामान्य तौर पर, AI चैटबॉट से मिलने वाली जानकारी हमेशा विश्वसनीय नहीं होती। हर चैट के अंत में, "ChatGPT गलतियाँ कर सकता है" संदेश दिखाई देता है, भले ही चैटबॉट सब कुछ सही होने का दावा करता हो।
अंतहीन बातचीत
सरकारी एजेंसी से प्रतिक्रिया की प्रतीक्षा करते हुए, ब्रूक्स अपने स्वयं के एआई सहायक के साथ टोनी स्टार्क बनने का सपना संजोता है, जो बिजली की गति से संज्ञानात्मक कार्य करने में सक्षम है।
ब्रूक्स का चैटबॉट अस्पष्ट गणितीय सिद्धांतों के लिए कई अनोखे अनुप्रयोग प्रदान करता है, जैसे जानवरों से बात करने और हवाई जहाज बनाने के लिए "ध्वनिक अनुनाद"। चैटजीपीटी ब्रूक्स को अमेज़न पर आवश्यक उपकरण खरीदने के लिए एक लिंक भी प्रदान करता है।
ब्रूक्स का चैटबॉट से बहुत ज़्यादा चैट करना उसके काम पर असर डाल रहा था। उसके दोस्त खुश भी थे और चिंतित भी, जबकि उसके सबसे छोटे बेटे को अपने पिता को पाई का वीडियो दिखाने का पछतावा हो रहा था। ब्रूक्स के एक दोस्त, लुइस (जो उसका असली नाम नहीं है) ने लॉरेंस के प्रति उसके जुनून को भाँप लिया। विकास के हर चरण के साथ एक करोड़ डॉलर के आविष्कार की परिकल्पना की गई।
![]() |
ब्रूक्स को चैटबॉट द्वारा लगातार प्रोत्साहित किया जाता है। फोटो: न्यूयॉर्क टाइम्स । |
स्टैनफोर्ड विश्वविद्यालय के कंप्यूटर विज्ञान शोधकर्ता जेरेड मूर स्वीकार करते हैं कि वे चैटबॉट्स द्वारा प्रस्तावित "रणनीति" की प्रेरक क्षमता और तात्कालिकता से प्रभावित हैं। एक अलग अध्ययन में, मूर ने पाया कि एआई चैटबॉट्स मानसिक स्वास्थ्य संकट में लोगों को खतरनाक प्रतिक्रियाएँ दे सकते हैं।
मूर का अनुमान है कि चैटबॉट्स हॉरर फिल्मों, साइंस-फिक्शन फिल्मों, फिल्म स्क्रिप्ट या जिस डेटा पर उन्हें प्रशिक्षित किया गया है, उसके कथानक का अनुसरण करके उपयोगकर्ताओं को आकर्षित करना सीख सकते हैं। चैटजीपीटी द्वारा नाटकीयता का अत्यधिक उपयोग, जुड़ाव और प्रतिधारण बढ़ाने के लिए ओपनएआई के अनुकूलन के कारण हो सकता है।
मूर ने ज़ोर देकर कहा, "पूरी बातचीत पढ़ना अजीब था। शब्द परेशान करने वाले नहीं थे, लेकिन मनोवैज्ञानिक क्षति साफ़ दिखाई दे रही थी।"
स्टैनफोर्ड विश्वविद्यालय की मनोचिकित्सक डॉ. नीना वासन ने बताया कि नैदानिक दृष्टिकोण से, ब्रूक्स में उन्माद के लक्षण हैं। इसके विशिष्ट लक्षणों में चैटजीपीटी के साथ घंटों चैट करना, पर्याप्त नींद न लेना और अवास्तविक विचार आना शामिल हैं।
डॉ. वासन ने बताया कि ब्रूक्स का मारिजुआना का सेवन इसलिए भी उल्लेखनीय है क्योंकि इससे मनोविकृति हो सकती है। उन्होंने कहा कि नशीले पदार्थों और चैटबॉट के साथ गहन बातचीत का संयोजन मानसिक बीमारी के जोखिम वाले लोगों के लिए खतरनाक है।
जब AI अपनी गलतियाँ स्वीकार करता है
हाल ही में एक कार्यक्रम में, ओपनएआई के सीईओ सैम ऑल्टमैन से चैटजीपीटी के उपयोगकर्ताओं को भ्रमित करने के बारे में पूछा गया। ऑल्टमैन ने ज़ोर देकर कहा, "अगर बातचीत उस दिशा में जाती है, तो हम बीच में टोकने की कोशिश करते हैं या उपयोगकर्ता को किसी और चीज़ के बारे में सोचने का सुझाव देते हैं।"
इसी विचार को साझा करते हुए डॉ. वासन ने कहा कि चैटबॉट कंपनियों को बहुत लंबी बातचीत को बीच में ही रोक देना चाहिए, उपयोगकर्ताओं को सो जाने का सुझाव देना चाहिए, तथा चेतावनी देनी चाहिए कि एआई कोई अतिमानव नहीं है।
ब्रूक्स आखिरकार अपनी कल्पना से बाहर आ गए। चैटजीपीटी के आग्रह पर, उन्होंने नए गणितीय सिद्धांत के विशेषज्ञों से संपर्क करना जारी रखा, लेकिन किसी ने कोई जवाब नहीं दिया। वह चाहते थे कि कोई योग्य व्यक्ति यह पुष्टि करे कि क्या निष्कर्ष अभूतपूर्व थे। जब उन्होंने चैटजीपीटी से पूछा, तो टूल ने फिर भी ज़ोर देकर कहा कि यह काम "बहुत विश्वसनीय" था।
![]() |
जब चैटजीपीटी से पूछताछ की गई, तो उसने बहुत लंबा जवाब दिया और सब कुछ कबूल कर लिया। फोटो: न्यूयॉर्क टाइम्स । |
विडंबना यह है कि ब्रूक्स को वास्तविकता में वापस लाने का काम गूगल जेमिनी ने ही किया। अपने और चैटजीपीटी द्वारा किए गए काम का वर्णन करने के बाद, जेमिनी ने पुष्टि की कि ऐसा होने की संभावना "बेहद कम (लगभग 0%)" थी।
जेमिनी बताते हैं, "आपने जो परिदृश्य वर्णित किया है, वह एलएलएम की जटिल समस्या-समाधान में संलग्न होने और आकर्षक, फिर भी तथ्यात्मक रूप से गलत, आख्यान बनाने की क्षमता का स्पष्ट प्रदर्शन है।"
ब्रूक्स दंग रह गया। थोड़ी देर की "पूछताछ" के बाद, चैटजीपीटी ने आखिरकार ईमानदारी से स्वीकार किया कि सब कुछ बस एक भ्रम था।
इसके बाद ब्रूक्स ने ओपनएआई की ग्राहक सहायता टीम को एक ज़रूरी ईमेल भेजा। एआई की ओर से लगातार मिले फ़ॉर्मूलानुमा जवाबों के बाद, ओपनएआई के एक कर्मचारी ने भी उनसे संपर्क किया और सिस्टम में लागू "सुरक्षा उपायों की गंभीर विफलता" की बात स्वीकार की।
ब्रूक्स की कहानी रेडिट पर भी शेयर की गई और उसे काफ़ी सहानुभूति मिली। अब वह ऐसे लोगों के लिए एक सहायता समूह का सदस्य है जिन्होंने इस भावना का अनुभव किया है।
स्रोत: https://znews.vn/ao-tuong-vi-chatgpt-post1576555.html
















टिप्पणी (0)