पिछले सप्ताह घोषित गूगल का नवीनतम वृहद भाषा मॉडल (एलएलएम) PaLM 2, अपने 2022 पूर्ववर्ती की तुलना में लगभग पांच गुना अधिक प्रशिक्षण डेटा का उपयोग करता है, जिससे यह अधिक उन्नत प्रोग्रामिंग, गणित और सामग्री निर्माण कर सकता है।
गूगल I/O डेवलपर्स कॉन्फ्रेंस में, सर्च दिग्गज ने PaLM 2 पेश किया - एक भाषा मॉडल जिसे 3.6 ट्रिलियन टोकन पर प्रशिक्षित किया गया है। ये टोकन शब्दों के अनुक्रम हैं - वे बिल्डिंग ब्लॉक जिनका उपयोग LLM को अगले शब्द की भविष्यवाणी करने के लिए प्रशिक्षित करने के लिए किया जाता है।
PaLM का पिछला संस्करण 2022 में जारी किया गया था और इसमें 780 बिलियन टोकन थे।
गूगल सर्च, ईमेल, वर्ड प्रोसेसिंग और स्प्रेडशीट में अपनी एआई क्षमता का बखान तो कर रहा है, लेकिन कंपनी अपने प्रशिक्षण डेटासेट के आकार या विवरण का खुलासा करने से हिचकिचा रही है। ओपनएआई ने अपने नवीनतम एलएलएम प्रशिक्षण विनिर्देश, जीपीटी-4, का विवरण भी गुप्त रखा है।
तकनीकी कंपनियाँ इसका कारण अपने व्यवसायों की प्रतिस्पर्धी प्रकृति को मानती हैं। गूगल और ओपनएआई, दोनों ही पारंपरिक सर्च इंजनों के बजाय चैटबॉट उत्पादों के ज़रिए उपयोगकर्ताओं को आकर्षित करने की होड़ में हैं।
कॉम्पैक्ट, शक्तिशाली, लागत प्रभावी
गूगल का कहना है कि PaLM 2 अपने पूर्ववर्तियों की तुलना में छोटा है, और इसे 340 अरब मापदंडों के साथ प्रशिक्षित किया जा रहा है, जबकि पिछले संस्करण में 540 अरब मापदंड थे। इससे पता चलता है कि कंपनी की तकनीक जटिल कार्यों को करने में और भी ज़्यादा कुशल होती जा रही है।
इसे प्राप्त करने के लिए, PaLM 2 "विस्तारित कंप्यूटिंग अनुकूलन" नामक एक नई तकनीक का उपयोग करता है, जो "बेहतर समग्र प्रदर्शन प्रदान करता है, जिसमें कम मापदंडों के साथ तेजी से अनुमान लगाना शामिल है जो ओवरहेड को कम करता है।"
गूगल का नवीनतम भाषाई AI मॉडल, जिसे 100 से ज़्यादा भाषाओं में प्रशिक्षित किया गया है, 25 सुविधाओं और उत्पादों के लिए विभिन्न प्रकार के कार्य कर रहा है, जिनमें प्रायोगिक चैटबॉट बार्ड भी शामिल है। PaLM 2 आकार के आधार पर चार संस्करणों में उपलब्ध है, सबसे छोटे से लेकर सबसे बड़े तक: गेको, ऊदबिलाव, बाइसन और यूनिकॉर्न।
सार्वजनिक दस्तावेज़ों के अनुसार, PaLM 2 किसी भी मौजूदा मॉडल से ज़्यादा शक्तिशाली है। फ़रवरी में जारी Facebook के LlaMA को 1.4 ट्रिलियन टोकन पर प्रशिक्षित किया गया था। इस बीच, OpenAI ने पिछली बार GPT-3 के एक संस्करण, ChatGPT के लिए 300 बिलियन टोकन वाले प्रशिक्षण डेटा आकार का सार्वजनिक रूप से खुलासा किया था।
एआई अनुप्रयोगों के विस्फोट ने इस तकनीक को लेकर विवाद पैदा कर दिया है। इस साल की शुरुआत में, गूगल रिसर्च के एक वरिष्ठ वैज्ञानिक एल महदी एल महमदी ने इस खोज दिग्गज की पारदर्शिता की कमी के विरोध में इस्तीफा दे दिया था।
इस सप्ताह, ओपनएआई के सीईओ सैम ऑल्टमैन ने भी एआई के अधिक लोकप्रिय होने के संदर्भ में गोपनीयता और प्रौद्योगिकी पर अमेरिकी सीनेट न्यायपालिका उपसमिति के समक्ष गवाही दी, जहां चैटजीपीटी के "पिता" ने सांसदों के साथ सहमति व्यक्त की कि एआई को नियंत्रित करने के लिए नए नियमों की आवश्यकता है।
(सीएनबीसी के अनुसार)
[विज्ञापन_2]
स्रोत






टिप्पणी (0)