مصنوعی ذہانت (AI) کے دھماکے نے ایک واضح رجحان لایا ہے: تربیتی مشین لرننگ سسٹم میں تعصب حقیقی دنیا میں امتیازی سلوک کا باعث بنتا ہے۔
برطانیہ اور چین میں سائنسدانوں کے ایک گروپ کی طرف سے کی گئی ایک حالیہ تحقیق سے پتہ چلتا ہے کہ خود سے چلنے والی گاڑیوں پر پیدل چلنے والوں کا پتہ لگانے والا سافٹ ویئر - جو کہ بہت سے کار مینوفیکچررز استعمال کر رہے ہیں - اس وقت کم موثر ہو سکتا ہے جب موضوع رنگین یا بچوں کا ہو، جس کی وجہ سے یہ لوگ ٹریفک میں حصہ لیتے وقت زیادہ خطرے میں پڑ جاتے ہیں۔
اگرچہ جنس نے درستگی میں صرف چھوٹے فرق ظاہر کیے، محققین نے پایا کہ گہرے جلد کے رنگوں والے پیدل چلنے والوں کو پہچاننے میں AI نظام کم درست تھا۔
کنگز کالج لندن کے کمپیوٹر سائنس دان اور تحقیقی ٹیم کے رکن جی ژانگ نے کہا، "اقلیتی افراد جن کو بہت سی اہم خدمات سے انکار کر دیا گیا ہے، اب انہیں حادثات کے سنگین خطرات کا سامنا ہے۔"
خاص طور پر، رپورٹ میں بتایا گیا کہ یہ نظام بچوں کے مقابلے بالغوں کا پتہ لگانے کا 19.67 فیصد زیادہ امکان رکھتا ہے، اور سیاہ رنگت والے لوگوں کا پتہ لگانے کا امکان 7.52 فیصد کم ہے۔
ٹیم نے اپنے مقالے میں لکھا، "مجموعی طور پر، یہ تحقیق موجودہ پیدل چلنے والوں کا پتہ لگانے کے نظام کو درپیش انصاف پسندی کے مسائل پر روشنی ڈالتی ہے، جو عمر اور جلد سے متعلق تعصبات کو دور کرنے کی اہمیت کو اجاگر کرتی ہے۔" "حاصل کردہ بصیرت مستقبل میں زیادہ منصفانہ اور غیر جانبدارانہ خود مختار ڈرائیونگ سسٹم کی راہ ہموار کر سکتی ہے۔"
تحقیقی ٹیم کے ارکان کے مطابق، ان کی رپورٹ میں بالکل وہی سافٹ ویئر استعمال نہیں کیا گیا جو ٹیسلا جیسی کمپنیاں اپنی کاروں میں انسٹال کرتی ہیں، کیونکہ یہ ایک تجارتی راز ہے، اس کے بجائے تحقیق اسی طرح کے اوپن سورس AIs پر مبنی تھی جو کاروبار کے ذریعے استعمال ہوتے ہیں۔
"یہ ضروری ہے کہ پالیسی ساز ایسے قوانین اور ضابطے نافذ کریں جو تمام افراد کے حقوق کا تحفظ کرتے ہیں اور ان خدشات کو مناسب طریقے سے حل کرتے ہیں،" ٹیم نے قانون سازوں پر زور دیا کہ وہ خود ڈرائیونگ کار سافٹ ویئر کو ریگولیٹ کریں تاکہ ان کے پتہ لگانے کے نظام میں تعصب کو روکا جا سکے۔
(اندرونی کے مطابق)
ماخذ
تبصرہ (0)