Eksplosjonen av kunstig intelligens (KI) har ført til en klar trend: Skjevhet i trening av maskinlæringssystemer fører til diskriminerende atferd i den virkelige verden .
En fersk studie utført av en gruppe forskere i Storbritannia og Kina viser at programvare for fotgjengerdeteksjon montert på selvkjørende kjøretøy – som brukes av mange bilprodusenter – kan være mindre effektiv når motivet er fargede personer eller barn, noe som fører til at disse menneskene er i større risiko når de deltar i trafikken.
Selv om kjønn bare viste små forskjeller i nøyaktighet, fant forskerne at AI-systemet var mindre nøyaktig i å gjenkjenne fotgjengere med mørkere hudtoner.
«Minoritetsindivider som har blitt nektet mange viktige tjenester, står nå overfor alvorlig ulykkesrisiko», sa Jie Zhang, informatiker ved King’s College London og medlem av forskerteamet.
Rapporten bemerket spesifikt at systemet hadde 19,67 % større sannsynlighet for å oppdage voksne enn barn, og 7,52 % mindre sannsynlighet for å oppdage de med mørkere hudtoner.
«Alt i alt kaster denne forskningen lys over rettferdighetsproblemene som dagens fotgjengerdeteksjonssystemer står overfor, og fremhever viktigheten av å ta tak i alders- og hudrelaterte skjevheter», skrev teamet i artikkelen sin. «Innsikten som er oppnådd kan bane vei for mer rettferdige og objektive autonome kjøresystemer i fremtiden.»
Ifølge medlemmer av forskerteamet brukte ikke rapporten deres nøyaktig den samme programvaren som selskaper som Tesla installerer i bilene sine, ettersom dette er en forretningshemmelighet. I stedet var forskningen basert på lignende åpen kildekode-AI-er som brukes av bedrifter.
«Det er viktig at beslutningstakere vedtar lover og forskrifter som beskytter rettighetene til alle individer og tar tak i disse bekymringene på en passende måte», oppfordret teamet lovgivere til å regulere programvare for selvkjørende biler for å forhindre skjevhet i deteksjonssystemene sine.
(Ifølge Insider)
[annonse_2]
Kilde






Kommentar (0)