गूगल का नवीनतम लार्ज लैंग्वेज मॉडल (एलएलएम), PaLM 2, जिसकी घोषणा पिछले सप्ताह की गई थी, अपने 2022 के पूर्ववर्ती की तुलना में लगभग पांच गुना अधिक प्रशिक्षण डेटा का उपयोग करता है, जिससे यह प्रोग्रामिंग करने, समस्याओं को हल करने और अधिक उन्नत सामग्री बनाने में सक्षम होता है।
गूगल आई/ओ डेवलपर सम्मेलन में, सर्च इंजन कंपनी ने 3.6 ट्रिलियन टोकन पर आधारित भाषा प्रशिक्षण मॉडल PaLM 2 पेश किया। ये टोकन शब्दों की श्रृंखलाएं हैं - जो एलएलएम प्रशिक्षण में अगले शब्द की भविष्यवाणी करने के लिए उपयोग किए जाने वाले मूलभूत तत्व हैं।
PaLM का पिछला संस्करण 2022 में जारी किया गया था और इसे 780 बिलियन टोकन का उपयोग करके प्रशिक्षित किया गया था।
गूगल लगातार सर्च, ईमेल, वर्ड प्रोसेसिंग और स्प्रेडशीट जैसे कार्यों में एआई की शक्ति का प्रदर्शन करता रहता है, लेकिन कंपनी अपने ट्रेनिंग डेटासेट के आकार या विवरण का खुलासा करने में हिचकिचाती है। ओपनएआई भी अपने नवीनतम एलएलएम ट्रेनिंग पैरामीटर, जीपीटी-4, के विवरण को गोपनीय रखता है।
प्रौद्योगिकी कंपनियां अपने व्यवसाय की प्रतिस्पर्धी प्रकृति का हवाला देकर इसकी व्याख्या करती हैं। Google और OpenAI दोनों ही पारंपरिक सर्च इंजनों के बजाय चैटबॉट उत्पादों के माध्यम से उपयोगकर्ताओं को आकर्षित करने की होड़ में हैं।
छोटा, शक्तिशाली और किफायती।
गूगल ने बताया कि PaLM 2 अपने पिछले संस्करणों की तुलना में अधिक कॉम्पैक्ट है, क्योंकि इसे 340 बिलियन पैरामीटर के साथ प्रशिक्षित किया गया है, जबकि पिछले संस्करण में 540 बिलियन पैरामीटर थे। यह दर्शाता है कि कंपनी की तकनीक जटिल कार्यों को करने में अधिक कुशल होती जा रही है।
इसे हासिल करने के लिए, PaLM 2 "विस्तारित कंप्यूटिंग अनुकूलन" नामक एक नई तकनीक का उपयोग करता है, जो "बेहतर समग्र प्रदर्शन प्रदान करता है, जिसमें कम मापदंडों के साथ तेज़ अनुमान शामिल है, जिससे परिचालन लागत कम हो जाती है।"
गूगल का नवीनतम एआई भाषा मॉडल, जिसे 100 से अधिक भाषाओं में प्रशिक्षित किया गया है, प्रायोगिक चैटबॉट बार्ड सहित 25 सुविधाओं और उत्पादों के लिए विभिन्न कार्य कर रहा है। PaLM 2 आकार के आधार पर चार संस्करणों में उपलब्ध है, सबसे छोटे से सबसे बड़े क्रम में: गेको, ओटर, बाइसन और यूनिकॉर्न।
सार्वजनिक रूप से उपलब्ध दस्तावेजों के अनुसार, PaLM 2 किसी भी मौजूदा मॉडल से अधिक शक्तिशाली है। फेसबुक का LlaMA, जिसे फरवरी में लॉन्च किया गया था, 1.4 ट्रिलियन टोकन पर प्रशिक्षित किया गया था। वहीं, OpenAI ने आखिरी बार ChatGPT के लिए प्रशिक्षण डेटा का आकार सार्वजनिक रूप से GPT-3 संस्करण के लिए बताया था, जिसमें 300 बिलियन टोकन थे।
कृत्रिम बुद्धिमत्ता (एआई) के अनुप्रयोगों में हुई भारी वृद्धि ने इस तकनीक को लेकर विवाद खड़ा कर दिया है। इसी साल की शुरुआत में, गूगल रिसर्च के एक वरिष्ठ वैज्ञानिक , अल महदी ने सर्च दिग्गज कंपनी की पारदर्शिता की कमी के विरोध में इस्तीफा दे दिया था।
इस सप्ताह, ओपनएआई के सीईओ सैम ऑल्टमैन ने एआई के बढ़ते प्रचलन के संदर्भ में अमेरिकी सीनेट की न्यायपालिका उपसमिति के समक्ष गोपनीयता और प्रौद्योगिकी पर गवाही दी। वहां, चैटजीपीटी के निर्माता ने सांसदों से सहमति जताते हुए कहा कि एआई को नियंत्रित करने के लिए नए नियमों की आवश्यकता है।
(सीएनबीसी के अनुसार)
[विज्ञापन_2]
स्रोत






टिप्पणी (0)