कृत्रिम बुद्धिमत्ता (एआई) के विस्फोट ने एक स्पष्ट प्रवृत्ति ला दी है: मशीन लर्निंग प्रणालियों के प्रशिक्षण में पूर्वाग्रह वास्तविक दुनिया में भेदभावपूर्ण व्यवहार को जन्म देता है।
ब्रिटेन और चीन के वैज्ञानिकों के एक समूह द्वारा हाल ही में किए गए अध्ययन से पता चलता है कि स्वचालित वाहनों में लगे पैदल यात्री पहचान सॉफ्टवेयर - जिसका उपयोग कई कार निर्माता कर रहे हैं - उस स्थिति में कम प्रभावी हो सकते हैं, जब विषय अश्वेत व्यक्ति या बच्चे हों, जिसके परिणामस्वरूप यातायात में भाग लेने के दौरान इन लोगों के लिए अधिक जोखिम हो सकता है।
यद्यपि लिंग के आधार पर सटीकता में केवल छोटे अंतर दिखाई दिए, लेकिन शोधकर्ताओं ने पाया कि एआई प्रणाली गहरे रंग की त्वचा वाले पैदल यात्रियों को पहचानने में कम सटीक थी।
किंग्स कॉलेज लंदन के कंप्यूटर वैज्ञानिक और शोध दल के सदस्य जी झांग ने कहा, "अल्पसंख्यक व्यक्ति जिन्हें कई महत्वपूर्ण सेवाओं से वंचित रखा गया है, अब गंभीर दुर्घटना के जोखिम का सामना कर रहे हैं।"
विशेष रूप से, रिपोर्ट में कहा गया है कि इस प्रणाली द्वारा बच्चों की तुलना में वयस्कों का पता लगाने की संभावना 19.67% अधिक है, तथा गहरे रंग की त्वचा वाले लोगों का पता लगाने की संभावना 7.52% कम है।
टीम ने अपने शोधपत्र में लिखा, "कुल मिलाकर, यह शोध वर्तमान पैदल यात्री पहचान प्रणालियों के सामने आने वाले निष्पक्षता के मुद्दों पर प्रकाश डालता है, और उम्र और त्वचा संबंधी पूर्वाग्रहों को दूर करने के महत्व पर प्रकाश डालता है।" "प्राप्त अंतर्दृष्टि भविष्य में अधिक निष्पक्ष और निष्पक्ष स्वचालित ड्राइविंग प्रणालियों का मार्ग प्रशस्त कर सकती है।"
शोध दल के सदस्यों के अनुसार, उनकी रिपोर्ट में उस सॉफ्टवेयर का उपयोग नहीं किया गया है जिसे टेस्ला जैसी कंपनियां अपनी कारों में स्थापित करती हैं, क्योंकि यह एक व्यापारिक रहस्य है, इसके बजाय शोध व्यवसायों द्वारा उपयोग किए जाने वाले समान ओपन-सोर्स एआई पर आधारित था।
टीम ने सांसदों से आग्रह किया कि वे स्व-चालित कार सॉफ्टवेयर को विनियमित करें, ताकि उनकी पहचान प्रणालियों में पक्षपात को रोका जा सके। "यह आवश्यक है कि नीति निर्माता ऐसे कानून और नियम बनाएं जो सभी व्यक्तियों के अधिकारों की रक्षा करें और इन चिंताओं का उचित ढंग से समाधान करें।"
(इनसाइडर के अनुसार)
[विज्ञापन_2]
स्रोत
टिप्पणी (0)