یک مطالعه جدید که در مجله علمی Proceedings of the National Academy of Sciences (PNAS) منتشر شده است، نشان میدهد که اگرچه هوش مصنوعی مولد مانند ChatGPT میتواند به کارگران کمک کند تا وظایف خود را سریعتر و کارآمدتر انجام دهند، اما این کار هزینه اجتماعی دارد: احتمال اینکه دیگران آنها را تنبل، بیکفایت یا ناتوان بدانند، بیشتر است.
این مطالعه که توسط تیمی از دانشمندان علوم اجتماعی انجام شده است، مبتنی بر نظریه انتساب است - این ایده که افراد تمایل دارند اعمال دیگران را بر اساس انگیزهها یا تواناییهای ذاتی خود تفسیر کنند تا شرایط. به عنوان مثال، درخواست کمک گاهی اوقات به عنوان نشانه ضعف شخصی تلقی میشود. به طور مشابه، استفاده از هوش مصنوعی میتواند به عنوان فقدان توانایی یا تلاش تلقی شود، نه ابزاری معتبر برای بهرهوری.

در چهار آزمایش که شامل بیش از ۴۴۰۰ شرکتکننده بود، این تیم به نتایج قابل توجهی دست یافت. در آزمایش اول، شرکتکنندگان تصور میکردند که با استفاده از هوش مصنوعی یا ابزارهای سنتی، کاری را انجام میدهند، سپس پیشبینی میکردند که چگونه توسط همکاران و مدیرانشان قضاوت خواهند شد. این افراد نگران بودند که به عنوان تنبل، قابل تعویض و کمتلاشتر دیده شوند. آنها گفتند که نمیخواهند استفاده خود از هوش مصنوعی را عمومی کنند.
آزمایش دوم نشان داد که این سوگیری واقعاً وجود دارد. از شرکتکنندگان خواسته شد تا یک کارمند فرضی را ارزیابی کنند: کسی که از هوش مصنوعی استفاده میکرد، کسی که از همکارش کمک میخواست و کسی که خودش این کار را انجام میداد. کاربران هوش مصنوعی تنبلتر، کمصلاحیتتر، کمتلاشتر و کماستقلالتر از دو گروه دیگر دیده شدند. نکته قابل توجه این است که این برداشت صرف نظر از جنسیت، سن یا صنعت کارمند به تصویر کشیده شده، ثابت بود.
در آزمایش سوم، بررسی شد که آیا این سوگیریها بر تصمیمات واقعی تأثیر میگذارند یا خیر. یک گروه از شرکتکنندگان نقش استخدامکننده را ایفا کردند و کاندیداها را بر اساس اینکه آیا کاندیداها از هوش مصنوعی در شغل خود استفاده میکنند یا خیر، انتخاب کردند. گروه استخدامکنندگانی که با هوش مصنوعی ناآشنا بودند، تمایل داشتند کاندیداهایی را انتخاب کنند که از هوش مصنوعی نیز استفاده نمیکردند. برعکس، کسانی که مرتباً از هوش مصنوعی استفاده میکردند، راحتتر بودند و تمایل داشتند کاندیداهایی را انتخاب کنند که از آن استفاده میکردند. این نشان میدهد که تجربه شخصی با این فناوری تأثیر زیادی بر نگرش ارزیابان دارد.
در آزمایش نهایی، تیم بررسی کرد که آیا موقعیتهای شغلی خاص این سوگیری را تغییر میدهند یا خیر. وقتی کاندیداها برای کارهای دیجیتالی، مانند نوشتن ایمیل، درخواست میدادند، کاربران هوش مصنوعی تنبل تلقی نمیشدند و حتی امتیاز بالاتری میگرفتند. با این حال، وقتی کاندیداها برای کارهای دستی، مانند یادداشتبرداری با دست، درخواست میدادند، کاربران هوش مصنوعی همچنان امتیاز کمتری میگرفتند. نتایج نشان داد که قویترین سوگیریها زمانی رخ میداد که کاربران هوش مصنوعی کارهایی را انجام میدادند که نیازی به هوش مصنوعی نداشتند.
جالب اینجاست که شرکتکنندگانی که به استفاده منظم از هوش مصنوعی اعتراف کردند، کمتر احتمال داشت که دیگران را به طور منفی قضاوت کنند، که نشان میدهد آشنایی و تجربه در دنیای واقعی میتواند انگ اجتماعی را کاهش دهد. جسیکا ریف، نویسنده اصلی و دانشجوی دکترا در دانشکده بازرگانی فوکوا دانشگاه دوک، گفت که او این پروژه را پس از شنیدن نظرات کارمندانی که نگرانی خود را در مورد قضاوت شدن هنگام استفاده از هوش مصنوعی ابراز میکردند، حتی اگر عملکرد کاری آنها کاهش نیافته بود، آغاز کرد.
این مطالعه از نقاط قوت روششناختی مانند موقعیتهای کنترلیِ با دقت ساختهشده برخوردار است. با این حال، نویسنده محدودیتهایی را نیز میپذیرد، مانند اینکه موقعیتها فرضی هستند و نه مشاهدات واقعی، و اینکه ارزیابان مستقیماً با افراد مورد ارزیابی آشنا نیستند، که ممکن است در یک محیط کار واقعی متفاوت باشد.
این یافتهها تأکید میکنند که اگرچه هوش مصنوعی در حال تبدیل شدن به ابزاری مفید برای افزایش بهرهوری است، اما استفاده از آن باید چگونگی تأثیر آن بر تصویر و شهرت شخصی را نیز در نظر بگیرد. نتایج این تحقیق یادآوری میکند: برای اینکه هوش مصنوعی واقعاً به یک دستیار مؤثر تبدیل شود، خود محیط کار باید برداشت خود را تغییر دهد و از برچسب زدن عجولانه به کاربران هوش مصنوعی به عنوان بیکفایت یا تنبل خودداری کند. و کارگران علاوه بر دانستن نحوه بهرهگیری از فناوری، باید شفافیت را نیز حفظ کنند، در عین حال مهارتها و نشانههای شخصی خود را توسعه دهند تا در تصویر ایجاد شده توسط هوش مصنوعی "حل" نشوند.
(طبق گفته PsyPost)

منبع: https://vietnamnet.vn/su-dung-chatgpt-trong-cong-vic-bi-danh-gia-luoi-bieng-kem-nang-luc-2422059.html
نظر (0)