
कई छात्रों को डर है कि एआई उन्हें स्नातक होने के बाद बेरोजगार बना देगा (चित्रण फोटो: एसटी)।
हार्वर्ड और एमआईटी जैसे शीर्ष विश्वविद्यालयों के कुछ छात्र पढ़ाई छोड़ने का निर्णय ले रहे हैं, ऐसा योग्यता की कमी के कारण नहीं, बल्कि आर्टिफिशियल जनरल इंटेलिजेंस (एजीआई) के प्रभुत्व वाले भविष्य के डर के कारण हो रहा है।
यह उन्नत प्रौद्योगिकी, जिसके अगले दशक में उभरने की भविष्यवाणी की गई है, सभी मानव-जैसे कार्य करने में सक्षम है, जिससे रोजगार की संभावनाओं और मानवता के अस्तित्व के बारे में गहरी चिंताएं पैदा हो रही हैं।
डिग्री और "अस्तित्व" के बीच चयन
मैसाचुसेट्स इंस्टीट्यूट ऑफ टेक्नोलॉजी (MIT) में 2023 में दाखिला लेने वाली एलिस ब्लेयर ने कभी मानवता के लाभ के लिए AI विकसित करने का सपना देखा था। हालाँकि, कुछ ही समय बाद उन्होंने अपनी पढ़ाई स्थगित करने का अनुरोध किया। कारण: इस डर से कि AGI मानवता को "नष्ट" कर सकता है।
ब्लेयर ने कहा, "मुझे चिंता है कि एजीआई के कारण मैं स्नातक होने तक जीवित नहीं रह पाऊँगा। मुझे लगता है कि ज़्यादातर मामलों में जिस तरह से हम एजीआई की ओर बढ़ रहे हैं, उससे मानव जाति का विनाश हो जाएगा।"
ब्लेयर अब सेंटर फॉर एआई सेफ्टी में तकनीकी संपादक के रूप में कार्यरत हैं, जो एआई सुरक्षा अनुसंधान के लिए समर्पित एक गैर-लाभकारी संस्था है। उनका स्कूल लौटने का कोई इरादा नहीं है, क्योंकि उनका मानना है कि उनका भविष्य "वास्तविक दुनिया " में है, जहाँ वे इस खतरे का सीधे तौर पर सामना कर सकती हैं।
ब्लेयर की कहानी अनोखी नहीं है।
फोर्ब्स के अनुसार, हार्वर्ड विश्वविद्यालय में भौतिकी और कंप्यूटर विज्ञान के प्रमुख एडम कॉफमैन ने भी रेडवुड रिसर्च में काम करने के लिए स्कूल छोड़ दिया, जो एक गैर-लाभकारी संगठन है जो एआई प्रणालियों को मनुष्यों को "धोखा" देने से रोकने के तरीकों का अध्ययन करता है।
उनका मानना है कि एआई से होने वाले जोखिमों को कम करना इस समय सबसे ज़रूरी है। गौरतलब है कि कॉफ़मैन के भाई, रूममेट और गर्लफ्रेंड ने भी इसी वजह से हार्वर्ड छोड़ दिया था और अब ओपनएआई में काम करते हैं।
एआई के कारण बेरोजगारी?
विलुप्त होने के भय के अलावा, एक और चिंता अमेरिका में छात्रों को पढ़ाई छोड़ने के लिए प्रेरित कर रही है: एआई उनके करियर को शुरू होने से पहले ही नष्ट कर सकता है।
एक सर्वेक्षण के अनुसार, हार्वर्ड के 326 छात्रों में से आधे ने अपने करियर की संभावनाओं पर एआई के प्रभाव को लेकर चिंता व्यक्त की। हाल ही में हार्वर्ड से स्नातक हुए निकोला जुर्कोविच ने स्पष्ट रूप से कहा: "अगर आपका करियर इस दशक के अंत तक स्वचालित हो जाएगा, तो कॉलेज का हर साल आपके छोटे से करियर से एक साल कम होगा।"
तकनीकी दिग्गजों की कई भविष्यवाणियाँ इस अनिश्चितता को और बढ़ा देती हैं। ओपनएआई के सीईओ सैम ऑल्टमैन का मानना है कि एजीआई 2029 तक आ जाएगा; जबकि गूगल डीपमाइंड के सीईओ डेमिस हसाबिस का अनुमान है कि यह समय सीमा पाँच से दस साल के बीच होगी।
कृत्रिम बुद्धिमत्ता कंपनी एंथ्रोपिक के डारियो अमोदेई जैसे विशेषज्ञों ने तो यहां तक चेतावनी दी है कि एआई निम्न स्तर की आधी कार्यालय नौकरियों को खत्म कर सकता है तथा अगले कुछ वर्षों में बेरोजगारी दर को 20% तक बढ़ा सकता है।
ऐसे निराशाजनक परिदृश्य का सामना करते हुए, कई छात्र अपना रास्ता खुद बना रहे हैं। वे ओपनएआई के सीईओ ऑल्टमैन और मार्क ज़करबर्ग जैसे "पूर्ववर्तियों" की सफलता की कहानियों से प्रेरित होकर, अपना खुद का व्यवसाय शुरू करने के लिए स्कूल छोड़ रहे हैं।
माइकल ट्रूएल, 24 (सीईओ एनीस्फीयर) और ब्रेंडन फूडी, 22 (सीईओ मर्कोर) जैसे नाम इस लहर के जीवंत प्रमाण हैं। ट्रूएल की कंपनी का वर्तमान मूल्यांकन 9.9 बिलियन डॉलर है, जबकि फूडी ने 100 मिलियन डॉलर से अधिक जुटाए हैं।
वाशिंगटन विश्वविद्यालय की पढ़ाई छोड़कर अपने स्टार्टअप, डैशक्रिस्टल पर ध्यान केंद्रित करने वाले जेरेड मैन्टेल कहते हैं, "मुझे लगा कि मेरे पास अभिनय के लिए बहुत कम समय है।" इलेक्ट्रॉनिक उपकरणों के डिज़ाइन को स्वचालित बनाने वाली उनकी कंपनी, जो 800,000 डॉलर से ज़्यादा की राशि जुटा चुकी है, तेज़ी से आगे बढ़ रही है।
हालाँकि, स्कूल छोड़ने का मतलब कई जोखिमों का सामना करना भी है। प्रसिद्ध स्टार्टअप एक्सेलरेटर, वाई कॉम्बिनेटर के सह-संस्थापक पॉल ग्राहम ने चेतावनी दी: "व्यवसाय शुरू करने के लिए कॉलेज मत छोड़ो। और भी मौके मिलेंगे, लेकिन आप अपने कॉलेज के साल वापस नहीं पा सकते।" ब्लेयर ने यह भी स्वीकार किया कि यह रास्ता "बहुत कठिन और थका देने वाला" है और केवल उन लोगों के लिए उपयुक्त है जो "बेहद लचीले" हैं।
इन छात्रों का भविष्य कैसा होगा? और ऐसी दुनिया में जहाँ AI सब कुछ बदल रहा है, कॉलेज की डिग्री कितनी मूल्यवान होगी?
स्रोत: https://dantri.com.vn/cong-nghe/noi-so-hai-ve-sieu-ai-khien-sinh-vien-harvard-mit-bo-hoc-20250812231329063.htm
टिप्पणी (0)