(डैन ट्राई) - कृत्रिम बुद्धिमत्ता को प्रशिक्षित करने के लिए इस्तेमाल किए जाने वाले डेटा की मात्रा लगभग समाप्त हो चुकी है, जिससे शोधकर्ताओं को एक-दूसरे को प्रशिक्षित करने के लिए कृत्रिम बुद्धिमत्ता का इस्तेमाल करना पड़ रहा है। यह कृत्रिम बुद्धिमत्ता को मानवीय बुद्धिमत्ता से आगे निकलने में मदद करने वाली एक बड़ी उपलब्धि हो सकती है।
एलन मस्क ने AI विकसित करने के नए तरीके सुझाए जो खतरनाक हो सकते हैं
कृत्रिम बुद्धिमत्ता कंपनी xAI के संस्थापक और प्रौद्योगिकी अरबपति एलन मस्क ने कृत्रिम बुद्धिमत्ता (AI) मॉडलों के प्रशिक्षण और शिक्षा की प्रक्रिया के बारे में चौंकाने वाली जानकारी जारी की है।
एलन मस्क ने 9 जनवरी को सोशल नेटवर्क एक्स पर लाइव प्रसारित एक साक्षात्कार में कहा, "हमने अब एआई को प्रशिक्षित करने और शिक्षित करने में मानव ज्ञान की मात्रा को समाप्त कर दिया है। यह मूल रूप से पिछले साल से हो रहा है।"
जीपीटी-4, जेमिनी, ग्रोक या लामा जैसे एआई मॉडल... इंटरनेट, वैज्ञानिक पत्रिकाओं, प्रकाशित अध्ययनों, सोशल नेटवर्क पर उपयोगकर्ता डेटा से एकत्रित बड़ी मात्रा में डेटा के आधार पर प्रशिक्षित किए जाते हैं...
एलन मस्क ने एआई को प्रशिक्षित करने के लिए एआई डेटा का उपयोग करने का प्रस्ताव दिया है, लेकिन इसमें कई संभावित जोखिम हैं (चित्रण: गेटी)।
हालाँकि, एआई मॉडलों के विकास की गति इतनी तेज़ है कि उपलब्ध डेटा की मात्रा अब इन एआई मॉडलों की बुद्धिमत्ता को प्रशिक्षित करने और बढ़ाने के लिए पर्याप्त नहीं है।
इस समस्या से निपटने के लिए, एलन मस्क ने एक समाधान प्रस्तावित किया है, जो यह है कि एआई मॉडलों को प्रशिक्षित करने के लिए स्वयं एआई द्वारा उत्पन्न डेटा का उपयोग किया जाए। दूसरे शब्दों में, एआई मनुष्यों द्वारा प्रदान किए गए डेटा पर निर्भर हुए बिना स्वयं को और एक-दूसरे को प्रशिक्षित कर सकता है।
"इस समस्या को ठीक करने का एकमात्र तरीका एआई मॉडल द्वारा उत्पन्न सिंथेटिक डेटा को पूरक करना और एआई को प्रशिक्षित करने के लिए इस डेटा का उपयोग करना है," एलोन मस्क ने साझा किया।
एआई द्वारा स्वयं उत्पन्न सिंथेटिक डेटा के आधार पर स्वयं को प्रशिक्षित करने वाली एआई प्रणालियाँ विकास लागत बचाने और मानव डेटा पर निर्भरता कम करने में मदद करेंगी। इससे कई लोगों को यह चिंता होती है कि एआई स्वयं को मानव बुद्धि से आगे निकलने के लिए प्रशिक्षित कर सकता है, जो मानवता के नियंत्रण से परे है।
हालांकि, कृत्रिम बुद्धिमत्ता विशेषज्ञों का कहना है कि एआई मॉडलों को प्रशिक्षित करने के लिए एआई द्वारा स्वयं उत्पन्न सिंथेटिक डेटा का उपयोग करने से ये मॉडल ध्वस्त हो सकते हैं, क्योंकि उत्पन्न डेटा में रचनात्मकता का अभाव होता है, वह पक्षपातपूर्ण होता है, तथा नवीनतम डेटा के साथ अद्यतन नहीं होता है।
ब्रिटेन के एलन ट्यूरिंग इंस्टीट्यूट में एआई के निदेशक एंड्रयू डंकन ने कहा, "जब आप एआई मॉडलों को प्रशिक्षित करने के लिए सिंथेटिक डेटा का उपयोग करते हैं, तो उनका प्रदर्शन धीरे-धीरे कम हो जाता है, और आउटपुट डेटा प्रेरणाहीन और पक्षपाती हो जाता है।"
उच्च-गुणवत्ता वाले डेटा को एक अमूल्य "संसाधन" माना जाता है जिसके लिए एआई विकास कंपनियाँ प्रतिस्पर्धा कर रही हैं। हालाँकि, सभी वैज्ञानिक एआई मॉडलों को प्रशिक्षित करने के लिए अपने शोध कार्य प्रदान करने को तैयार नहीं हैं।
गूगल ऐसा कृत्रिम बुद्धि (AI) बनाने में सफल रहा है जो बिल्कुल इंसानों की तरह सोचता और काम करता है
कल्पना कीजिए कि आपके पास किसी व्यक्ति के व्यक्तित्व, दृष्टिकोण और शैली को निर्धारित करने का साधन हो और फिर उस व्यक्ति की एक AI प्रतिकृति बनाई जाए।
यह कोई विज्ञान कथा नहीं है, बल्कि स्टैनफोर्ड विश्वविद्यालय और गूगल के शोधकर्ताओं द्वारा किए गए एक अभूतपूर्व अध्ययन का अंतर्निहित लक्ष्य है।
केवल 2 घंटे के साक्षात्कार से, गूगल एक ऐसा AI बना सकता है जो बिल्कुल आपकी तरह सोचता और कार्य करता है (फोटो: ज़िपरिक्रूटर)।
शोधकर्ताओं ने केवल दो घंटे के साक्षात्कारों से प्राप्त जानकारी का उपयोग करके 1,000 से अधिक प्रतिभागियों की एक कृत्रिम बुद्धिमत्ता (AI) प्रतिकृति बनाई। ये कृत्रिम बुद्धिमत्ताएँ मानव व्यवहार की नकल कर सकती हैं।
इस आविष्कार के संभावित अनुप्रयोग बहुत व्यापक हैं। नीति-निर्माता और व्यवसाय इस एआई सिमुलेशन का उपयोग नई नीतियों या उत्पादों पर जनता की प्रतिक्रियाओं का अनुमान लगाने के लिए कर सकते हैं, बजाय इसके कि उन्हें केवल फ़ोकस समूहों या बार-बार दोहराए जाने वाले सर्वेक्षणों पर निर्भर रहना पड़े।
शोधकर्ताओं का मानना है कि यह प्रौद्योगिकी सामाजिक संरचनाओं का पता लगाने , हस्तक्षेप करने तथा मानव व्यवहार के सूक्ष्म सिद्धांतों को विकसित करने में मदद कर सकती है।
हालाँकि, इसके कुछ जोखिम भी हैं, जैसे कि AI क्लोन के दुरुपयोग को लेकर नैतिक चिंताएँ। कुछ लोग इस AI का इस्तेमाल जनमत को प्रभावित करने, किसी व्यक्ति का रूप धारण करने, या नकली सिंथेटिक डेटा के आधार पर जनता की प्राथमिकताओं का अनुकरण करने के लिए कर सकते हैं।
ये चिंताएं कई लोगों की लंबे समय से चली आ रही चिंता के अंतर्गत आती हैं कि इसी तरह के एआई मॉडल के प्रसार से मानवता के भविष्य पर नकारात्मक प्रभाव पड़ सकता है।
[विज्ञापन_2]
स्रोत: https://dantri.com.vn/suc-manh-so/ai-sap-dat-duoc-buoc-dot-pha-moi-co-the-vuot-qua-tri-tue-con-nguoi-20250111132229246.htm
टिप्पणी (0)