Yapay zekânın (YZ) patlaması net bir eğilimi ortaya çıkardı: Makine öğrenme sistemlerinin eğitimindeki önyargı, gerçek dünyada ayrımcı davranışlara yol açıyor.
İngiltere ve Çin'den bir grup bilim insanının yakın zamanda yaptığı bir çalışma, birçok otomobil üreticisi tarafından kullanılan otonom araçlara yerleştirilen yaya algılama yazılımının, hedefte ten rengi farklı olan kişiler veya çocuklar olduğunda daha az etkili olabileceğini ve bu kişilerin trafikte daha büyük risk altında kalmasına yol açabileceğini gösteriyor.
Araştırmacılar, cinsiyetin doğruluk oranında yalnızca küçük farklılıklar gösterdiğini ancak yapay zeka sisteminin daha koyu ten rengine sahip yayaları tanımada daha az doğru olduğunu tespit etti.
King's College London'da bilgisayar bilimcisi ve araştırma ekibinin üyesi olan Jie Zhang, "Birçok önemli hizmetten mahrum bırakılan azınlık bireyler artık ciddi kaza riskleriyle karşı karşıya" dedi.
Raporda özellikle, sistemin yetişkinleri çocuklara göre %19,67 daha fazla tespit etme olasılığının olduğu ve daha koyu ten rengine sahip olanları tespit etme olasılığının ise %7,52 daha düşük olduğu belirtildi.
Araştırma ekibi makalelerinde, "Genel olarak, bu araştırma mevcut yaya algılama sistemlerinin karşılaştığı adalet sorunlarına ışık tutuyor ve yaş ve ciltle ilgili önyargıların ele alınmasının önemini vurguluyor" diye yazdı. "Elde edilen bilgiler, gelecekte daha adil ve önyargısız otonom sürüş sistemlerinin önünü açabilir."
Araştırma ekibinin üyelerine göre, raporlarında Tesla gibi şirketlerin arabalarına yüklediği yazılımın aynısını kullanmadılar, çünkü bu bir ticari sır; bunun yerine araştırma, işletmeler tarafından kullanılan benzer açık kaynaklı yapay zekâlara dayanıyordu.
Ekip, yasa koyucuları, otonom araç yazılımlarının tespit sistemlerindeki önyargıyı önlemek için bu yazılımları düzenlemeye çağırarak, "Politika yapıcıların tüm bireylerin haklarını koruyan ve bu endişeleri uygun şekilde ele alan yasalar ve yönetmelikler çıkarması şarttır" dedi.
(Insider'a göre)
[reklam_2]
Kaynak










Yorum (0)