जर्मनी में शोधकर्ताओं के एक समूह ने हाल ही में शोध सामग्री को छोटा करने के लिए एआई चैटबॉट्स के इस्तेमाल से पूर्वाग्रह के जोखिम के बारे में चेतावनी दी है। मनुष्यों द्वारा लिखे गए 4,900 वैज्ञानिक सारांशों का विश्लेषण करने के बाद, टीम ने कई एआई मॉडलों का इस्तेमाल करके तुलना की कि ये सिस्टम जानकारी को कैसे संसाधित करते हैं। परिणामों से पता चला कि ज़्यादातर चैटबॉट्स अति-सामान्यीकरण की गलती करते हैं, तब भी जब उन्हें सटीक सारांश देने के लिए कहा जाता है।
वैज्ञानिक अनुसंधान का सारांश प्रस्तुत करते समय एआई पूर्वाग्रह से ग्रस्त हो सकता है।
परीक्षणों में, बिना मार्गदर्शन के, एआई मॉडल्स ने मानव विशेषज्ञों की तुलना में पाँच गुना ज़्यादा गलतियाँ कीं। यहाँ तक कि जब सटीकता के बारे में स्पष्ट रूप से पूछा गया, तब भी त्रुटि दर एक मानक सारांश की तुलना में दोगुनी थी। टीम के एक सदस्य ने कहा, "सामान्यीकरण कभी-कभी हानिरहित लगते हैं, लेकिन वास्तव में वे मूल शोध की प्रकृति को बदल देते हैं। यह एक व्यवस्थित पूर्वाग्रह है।"
गौरतलब है कि चैटबॉट के नए संस्करण न केवल समस्या का समाधान करने में विफल रहे हैं, बल्कि इसे और भी बदतर बना दिया है। अपनी सहज और आकर्षक भाषा के कारण, एआई द्वारा तैयार किए गए सारांश आसानी से विश्वसनीय लग सकते हैं, जबकि वास्तविक सामग्री विकृत हो गई है। एक उदाहरण में, डीपसीक ने "सुरक्षित और सफलतापूर्वक किया जा सकता है" वाक्यांश को "सुरक्षित और प्रभावी उपचार" में बदल दिया - जो मूल अध्ययन के निष्कर्षों की गलत व्याख्या है।
एक अन्य उदाहरण में, लामा मॉडल ने युवाओं के लिए मधुमेह की दवा की सिफारिश की, बिना खुराक, आवृत्ति या दुष्प्रभावों का उल्लेख किए। अगर पाठक कोई डॉक्टर या स्वास्थ्य सेवा पेशेवर है जो मूल शोध की पुष्टि नहीं करता है, तो इस तरह के सारांश मरीजों के लिए सीधा खतरा पैदा कर सकते हैं।
विशेषज्ञों का कहना है कि यह घटना एआई मॉडलों के प्रशिक्षण के तरीके में निहित है। आजकल कई चैटबॉट द्वितीयक डेटा—जैसे लोकप्रिय विज्ञान समाचार—पर प्रशिक्षित होते हैं, जिसे पहले ही सरल बना दिया गया है। जैसे-जैसे एआई संक्षिप्त सामग्री का सारांश प्रस्तुत करता जाता है, विकृत होने का जोखिम बढ़ता जाता है।
मानसिक स्वास्थ्य के क्षेत्र में एआई के विशेषज्ञों का कहना है कि एआई के विकास और उपयोग में तकनीकी बाधाएं जल्दी ही खड़ी कर दी जानी चाहिए।
उपयोगकर्ताओं को सावधान रहने की आवश्यकता है क्योंकि चैटबॉट आसानी से सामग्री को विकृत कर सकते हैं।
जैसे-जैसे उपयोगकर्ता विज्ञान के बारे में जानने के लिए एआई चैटबॉट्स पर अधिकाधिक निर्भर होते जा रहे हैं, व्याख्या में छोटी-छोटी गलतियाँ तेज़ी से बढ़ और फैल सकती हैं, जिससे व्यापक गलतफ़हमियाँ पैदा हो सकती हैं। ऐसे समय में जब विज्ञान पर भरोसा कम हो रहा है, यह जोखिम और भी चिंताजनक हो जाता है और इस पर उचित ध्यान देने की आवश्यकता है।
अनुसंधान और ज्ञान के प्रसार में एआई का एकीकरण एक अपरिवर्तनीय प्रवृत्ति है। हालाँकि, विशेषज्ञ इस बात पर ज़ोर देते हैं कि तकनीक वैज्ञानिक सामग्री को समझने और सत्यापित करने में मानवीय भूमिका की जगह नहीं ले सकती। चिकित्सा जैसे उच्च जोखिम वाले क्षेत्रों में चैटबॉट का उपयोग करते समय, केवल सहज भाषा अनुभव या प्रतिक्रिया गति पर ध्यान केंद्रित करने के बजाय, सटीकता को सर्वोच्च प्राथमिकता दी जानी चाहिए।
स्रोत: https://khoahocdoisong.vn/chatgpt-deepseek-bop-meo-du-lieu-khoa-hoc-post1552971.html










टिप्पणी (0)