Vietnam.vn - Nền tảng quảng bá Việt Nam

कुछ पैरामीटर, बहुत सारा डेटा

VietNamNetVietNamNet18/05/2023

[विज्ञापन_1]

पिछले सप्ताह घोषित गूगल का नवीनतम वृहद भाषा मॉडल (एलएलएम) PaLM 2, अपने 2022 पूर्ववर्ती की तुलना में लगभग पांच गुना अधिक प्रशिक्षण डेटा का उपयोग करता है, जिससे यह अधिक उन्नत प्रोग्रामिंग, गणित और सामग्री निर्माण कर सकता है।

गूगल I/O डेवलपर्स कॉन्फ्रेंस में, सर्च दिग्गज ने PaLM 2 पेश किया - एक भाषा मॉडल जिसे 3.6 ट्रिलियन टोकन पर प्रशिक्षित किया गया है। ये टोकन शब्दों के अनुक्रम हैं - वे बिल्डिंग ब्लॉक जिनका उपयोग LLM को अगले शब्द की भविष्यवाणी करने के लिए प्रशिक्षित करने के लिए किया जाता है।

PaLM का पिछला संस्करण 2022 में जारी किया गया था और इसमें 780 बिलियन टोकन थे।

गूगल के सीईओ सुन्दर पिचाई ने पिछले सप्ताह गूगल I/O इवेंट में कंपनी के नवीनतम बड़े भाषा मॉडल, PaLM 2 को पेश किया।

गूगल सर्च, ईमेल, वर्ड प्रोसेसिंग और स्प्रेडशीट में अपनी एआई क्षमता का बखान तो कर रहा है, लेकिन कंपनी अपने प्रशिक्षण डेटासेट के आकार या विवरण का खुलासा करने से हिचकिचा रही है। ओपनएआई ने अपने नवीनतम एलएलएम प्रशिक्षण विनिर्देश, जीपीटी-4, का विवरण भी गुप्त रखा है।

तकनीकी कंपनियाँ इसका कारण अपने व्यवसायों की प्रतिस्पर्धी प्रकृति को मानती हैं। गूगल और ओपनएआई, दोनों ही पारंपरिक सर्च इंजनों के बजाय चैटबॉट उत्पादों के ज़रिए उपयोगकर्ताओं को आकर्षित करने की होड़ में हैं।

कॉम्पैक्ट, शक्तिशाली, लागत प्रभावी

गूगल का कहना है कि PaLM 2 अपने पूर्ववर्तियों की तुलना में छोटा है, और इसे 340 अरब मापदंडों के साथ प्रशिक्षित किया जा रहा है, जबकि पिछले संस्करण में 540 अरब मापदंड थे। इससे पता चलता है कि कंपनी की तकनीक जटिल कार्यों को करने में और भी ज़्यादा कुशल होती जा रही है।

इसे प्राप्त करने के लिए, PaLM 2 "विस्तारित कंप्यूटिंग अनुकूलन" नामक एक नई तकनीक का उपयोग करता है, जो "बेहतर समग्र प्रदर्शन प्रदान करता है, जिसमें कम मापदंडों के साथ तेजी से अनुमान लगाना शामिल है जो ओवरहेड को कम करता है।"

गूगल का नवीनतम भाषाई AI मॉडल, जिसे 100 से ज़्यादा भाषाओं में प्रशिक्षित किया गया है, 25 सुविधाओं और उत्पादों के लिए विभिन्न प्रकार के कार्य कर रहा है, जिनमें प्रायोगिक चैटबॉट बार्ड भी शामिल है। PaLM 2 आकार के आधार पर चार संस्करणों में उपलब्ध है, सबसे छोटे से लेकर सबसे बड़े तक: गेको, ऊदबिलाव, बाइसन और यूनिकॉर्न।

सार्वजनिक दस्तावेज़ों के अनुसार, PaLM 2 किसी भी मौजूदा मॉडल से ज़्यादा शक्तिशाली है। फ़रवरी में जारी Facebook के LlaMA को 1.4 ट्रिलियन टोकन पर प्रशिक्षित किया गया था। इस बीच, OpenAI ने पिछली बार GPT-3 के एक संस्करण, ChatGPT के लिए 300 बिलियन टोकन वाले प्रशिक्षण डेटा आकार का सार्वजनिक रूप से खुलासा किया था।

एआई अनुप्रयोगों के विस्फोट ने इस तकनीक को लेकर विवाद पैदा कर दिया है। इस साल की शुरुआत में, गूगल रिसर्च के एक वरिष्ठ वैज्ञानिक एल महदी एल महमदी ने इस खोज दिग्गज की पारदर्शिता की कमी के विरोध में इस्तीफा दे दिया था।

इस सप्ताह, ओपनएआई के सीईओ सैम ऑल्टमैन ने भी एआई के अधिक लोकप्रिय होने के संदर्भ में गोपनीयता और प्रौद्योगिकी पर अमेरिकी सीनेट न्यायपालिका उपसमिति के समक्ष गवाही दी, जहां चैटजीपीटी के "पिता" ने सांसदों के साथ सहमति व्यक्त की कि एआई को नियंत्रित करने के लिए नए नियमों की आवश्यकता है।

(सीएनबीसी के अनुसार)


[विज्ञापन_2]
स्रोत

टिप्पणी (0)

No data
No data

उसी विषय में

उसी श्रेणी में

फु सा फिन को जीतने के रास्ते में परी काई के जंगल में खो गया
आज सुबह, क्वे नॉन समुद्र तट शहर धुंध में 'स्वप्नमय' लग रहा है
'बादल शिकार' के मौसम में सा पा की मनमोहक सुंदरता
प्रत्येक नदी - एक यात्रा

उसी लेखक की

विरासत

आकृति

व्यापार

थू बोन नदी पर आई 'महाबाढ़' 1964 की ऐतिहासिक बाढ़ से 0.14 मीटर अधिक थी।

वर्तमान घटनाएं

राजनीतिक प्रणाली

स्थानीय

उत्पाद