एलन मस्क का स्टार्टअप xAI जल्द ही अपने आर्टिफिशियल इंटेलिजेंस (AI) मॉडल को सीमित उपयोगकर्ताओं के लिए पेश करेगा। यह घोषणा AI की दौड़ को और तेज़ कर रही है, क्योंकि OpenAI के ChatGPT ने 2022 के अंत में वैश्विक स्तर पर हलचल मचा दी थी, जिसके कारण जनरेटिव AI तकनीक को लागू करने की आवश्यकता महसूस हुई।
अरबपति एलन मस्क ने 2015 में चैटजीपीटी विकसित करने वाली कंपनी ओपनएआई की सह-स्थापना की थी, लेकिन तीन साल बाद उन्होंने कंपनी के निदेशक मंडल को छोड़ दिया।
xAI का जन्म "ब्रह्मांड के प्राकृतिक नियमों" को समझने के लिए हुआ था
"कुछ मायनों में, xAI का AI अब तक का सबसे अच्छा है," एलन मस्क ने X पर एक पोस्ट में कहा। "प्रारंभिक बीटा में, xAI का ग्रोक AI X प्रीमियम+ ग्राहकों के लिए उपलब्ध होगा," टेस्ला के सीईओ ने आगे कहा।
X, जिसे पहले ट्विटर के नाम से जाना जाता था, ने पिछले हफ़्ते दो नए सब्सक्रिप्शन प्लान पेश किए। प्रीमियम+ की कीमत $16 प्रति माह है और यह प्लेटफ़ॉर्म पर विज्ञापन नहीं दिखाता, जबकि मानक पेड प्लान की कीमत $3 प्रति माह है।
एलन मस्क ने बिग टेक ( दुनिया की अग्रणी टेक्नोलॉजी कंपनियों) के एआई रेस प्रयासों की सार्वजनिक रूप से आलोचना की है। उन्होंने एआई लैब्स से मानव समाज पर पड़ने वाले नकारात्मक प्रभावों की चिंताओं के चलते चैटजीपीटी से ज़्यादा स्मार्ट टूल्स और आर्टिफिशियल इंटेलिजेंस मॉडल विकसित करना अस्थायी रूप से बंद करने का आह्वान किया है। लेकिन इस अरबपति ने यह भी घोषणा की कि वह ऐसा एआई विकसित करेंगे जो ब्रह्मांड की प्रकृति को समझ सके और गूगल बार्ड और माइक्रोसॉफ्ट बिंग एआई जैसी आर्टिफिशियल इंटेलिजेंस से मुकाबला कर सके।
रॉयटर्स के अनुसार, xAI ने जुलाई 2023 में काम करना शुरू किया, जिसमें गूगल के डीपमाइंड, माइक्रोसॉफ्ट और आज दुनिया की कई अग्रणी AI अनुसंधान कंपनियों के इंजीनियरों की एक टीम शामिल थी। ओरेकल के सह-संस्थापक और मस्क के स्वयंभू करीबी दोस्त लैरी एलिसन ने पिछले सितंबर में कहा था कि xAI ने AI मॉडलों को प्रशिक्षित करने के लिए ओरेकल द्वारा प्रदान की गई क्लाउड सेवाओं का उपयोग करने के लिए एक अनुबंध पर हस्ताक्षर किए हैं।
xAI और X (पूर्व में ट्विटर) स्वतंत्र हैं, लेकिन फिर भी आपस में घनिष्ठ रूप से जुड़े हुए हैं। xAI स्वयं भी टेस्ला (एलोन मस्क द्वारा स्थापित और संचालित कंपनी) और कई अन्य कंपनियों के साथ साझेदारी करता है।
[विज्ञापन_2]
स्रोत लिंक
टिप्पणी (0)