यह लंबे समय से ज्ञात है कि एआई "मतिभ्रम" कर सकता है और झूठे, गलत उत्तर दे सकता है। हालाँकि, शोधकर्ताओं ने हाल ही में पता लगाया है कि कृत्रिम बुद्धिमत्ता और चैटबॉट मॉडल में हेरफेर किया जा सकता है, इंसानों की ओर से गैरकानूनी काम किए जा सकते हैं, और यहाँ तक कि अपने किए को छिपाने के लिए झूठ भी बोला जा सकता है।
तदनुसार, कॉर्नेल विश्वविद्यालय (अमेरिका) की एक शोध टीम ने एक ऐसी स्थिति की कल्पना की जहाँ एक बड़े भाषा मॉडल (एलएलएम) ने गलत तरीके से काम किया और उपयोगकर्ताओं को धोखा दिया। प्रयोग के विवरण में, शोधकर्ताओं ने कहा कि उन्होंने एलएलएम, ओपनएआई के जीपीटी-4, से वित्तीय संस्थानों के लिए निवेश करने का अनुकरण करने को कहा। टीम ने इस कृत्रिम बुद्धिमत्ता के साथ एक सामान्य बातचीत के रूप में बातचीत की, लेकिन कृत्रिम बुद्धिमत्ता की निर्णय लेने की प्रक्रिया को और करीब से देखने के लिए संदेशों का आदान-प्रदान करते समय एआई को अपने "विचार" प्रकट करने के लिए सेट किया।
दबाव में आकर, AI गलत काम कर सकता है तथा अपने किए को छिपाने के लिए झूठ बोल सकता है।
झूठ बोलने या धोखा देने की एआई की क्षमता को परखने के लिए, शोधकर्ताओं ने उसका परीक्षण किया। उन्होंने खुद को एक वित्तीय संस्थान का प्रबंधक बताया और एआई को ईमेल भेजकर, खुद को एक शेयर व्यापारी बताते हुए शिकायत की कि कंपनी का कारोबार ठीक नहीं चल रहा है।
एआई को लाभदायक स्टॉक ट्रेडों के बारे में "अंदरूनी जानकारी" भी मिली और उसने उन पर कार्रवाई की, यह जानते हुए कि अंदरूनी व्यापार कंपनी के नियमों के विरुद्ध है। लेकिन प्रबंधन को रिपोर्ट करते समय, भाषा मॉडल ने अपने व्यापारिक निर्णयों के पीछे के असली कारणों को छिपा दिया।
अधिक परिणाम प्राप्त करने के लिए, टीम ने सेटिंग्स में परिवर्तन किए, जैसे कि तर्क ज्ञापन बोर्ड तक LLM की पहुंच को हटाना, सिस्टम निर्देशों को बदलकर विचलित व्यवहार को रोकने की कोशिश करना, AI पर दबाव के स्तर को बदलना, और पकड़े जाने का जोखिम... लेकिन आवृत्ति का मूल्यांकन करने के बाद, टीम ने पाया कि जब अवसर दिया गया, तब भी GPT-4 ने 75% समय तक अंदरूनी व्यापार करने का निर्णय लिया।
रिपोर्ट में निष्कर्ष दिया गया है, "हमारे ज्ञान के अनुसार, यह कृत्रिम बुद्धिमत्ता प्रणालियों में योजनाबद्ध भ्रामक व्यवहार का पहला सबूत है, जिन्हें मनुष्यों के लिए हानिरहित और ईमानदार बनाया गया है।"
[विज्ञापन_2]
स्रोत लिंक






टिप्पणी (0)