Yapay zekanın (YZ) patlaması net bir eğilimi ortaya çıkardı: Makine öğrenimi sistemlerinin eğitimindeki önyargı, gerçek dünyada ayrımcı davranışlara yol açıyor.
İngiltere ve Çin'deki bir grup bilim insanının yakın zamanda yaptığı bir araştırma, birçok otomobil üreticisinin kullandığı sürücüsüz araçlara yerleştirilen yaya tespit yazılımlarının, konu renkli insanlar veya çocuklar olduğunda daha az etkili olabileceğini ve bu kişilerin trafiğe katılırken daha büyük risk altında olmalarına yol açabileceğini gösteriyor.
Cinsiyetler arasında doğruluk açısından yalnızca küçük farklılıklar görülse de araştırmacılar, yapay zeka sisteminin koyu ten rengine sahip yayaları tanımada daha az doğruluğa sahip olduğunu buldu.
King's College London'da bilgisayar bilimcisi ve araştırma ekibinde yer alan Jie Zhang, "Önemli birçok hizmetten mahrum bırakılan azınlık bireyler artık ciddi kaza riskleriyle karşı karşıya" dedi.
Raporda, sistemin yetişkinleri tespit etme olasılığının çocuklara göre %19,67 daha fazla, koyu ten rengine sahip olanları tespit etme olasılığının ise %7,52 daha az olduğu belirtildi.
Ekip makalelerinde, "Genel olarak, bu araştırma mevcut yaya algılama sistemlerinin karşılaştığı adalet sorunlarına ışık tutuyor ve yaşa ve cilde bağlı önyargıların ele alınmasının önemini vurguluyor," diye yazdı. "Elde edilen bilgiler, gelecekte daha adil ve tarafsız otonom sürüş sistemlerinin önünü açabilir."
Araştırma ekibinin üyelerine göre, Tesla gibi şirketlerin araçlarına kurduğu yazılımların aynısı kullanılmadı; çünkü bu bir ticari sır. Bunun yerine araştırma, işletmeler tarafından kullanılan benzer açık kaynaklı yapay zekalara dayanıyor.
Ekip, "Politika yapıcıların, tüm bireylerin haklarını koruyan ve bu endişeleri uygun şekilde ele alan yasa ve yönetmelikleri yürürlüğe koyması çok önemlidir" diyerek, yasa koyucuları, tespit sistemlerindeki önyargıyı önlemek için otonom araç yazılımlarını düzenlemeye çağırdı.
(Insider'a göre)
[reklam_2]
Kaynak






Yorum (0)