انفجار هوش مصنوعی (AI) یک روند واضح را به همراه داشته است: تعصب در آموزش سیستمهای یادگیری ماشینی منجر به رفتار تبعیضآمیز در دنیای واقعی میشود.
یک مطالعه اخیر توسط گروهی از دانشمندان در بریتانیا و چین نشان میدهد که نرمافزار تشخیص عابر پیاده که روی خودروهای خودران نصب شده است - که توسط بسیاری از تولیدکنندگان خودرو استفاده میشود - ممکن است در مورد افراد رنگینپوست یا کودکان، کارایی کمتری داشته باشد و این امر منجر به این شود که این افراد هنگام مشارکت در ترافیک در معرض خطر بیشتری قرار گیرند.
اگرچه جنسیت تفاوتهای کمی در دقت نشان داد، محققان دریافتند که سیستم هوش مصنوعی در تشخیص عابران پیاده با رنگ پوست تیرهتر دقت کمتری دارد.
جی ژانگ، دانشمند کامپیوتر در کالج کینگ لندن و عضو تیم تحقیقاتی، گفت: «اقلیتهایی که از بسیاری از خدمات مهم محروم شدهاند، اکنون با خطرات جدی ناشی از حوادث روبرو هستند.»
به طور خاص، در این گزارش اشاره شده است که این سیستم ۱۹.۶۷ درصد بیشتر از کودکان، بزرگسالان را تشخیص میدهد و ۷.۵۲ درصد کمتر از کودکان، افراد با رنگ پوست تیرهتر را تشخیص میدهد.
این تیم در مقاله خود نوشت: «به طور کلی، این تحقیق مسائل مربوط به انصاف در سیستمهای فعلی تشخیص عابر پیاده را روشن میکند و اهمیت پرداختن به تعصبات مربوط به سن و پوست را برجسته میسازد. بینشهای به دست آمده میتواند راه را برای سیستمهای رانندگی خودکار منصفانهتر و بیطرفانهتر در آینده هموار کند.»
به گفته اعضای تیم تحقیقاتی، گزارش آنها دقیقاً از نرمافزاری که شرکتهایی مانند تسلا در خودروهای خود نصب میکنند استفاده نکرده است، زیرا این یک راز تجاری است، در عوض این تحقیق بر اساس هوش مصنوعی متنباز مشابهی بوده که توسط کسبوکارها استفاده میشود.
این تیم از قانونگذاران خواست تا نرمافزار خودروهای خودران را تنظیم کنند تا از سوگیری در سیستمهای تشخیص آنها جلوگیری شود: «ضروری است که سیاستگذاران قوانین و مقرراتی را تصویب کنند که از حقوق همه افراد محافظت کند و به طور مناسب به این نگرانیها رسیدگی کند.»
(به نقل از اینسایدر)
منبع






نظر (0)