یک مطالعه جدید که در مجله علمی Proceedings of the National Academy of Sciences (PNAS) منتشر شده است، نشان می‌دهد که اگرچه هوش مصنوعی مولد مانند ChatGPT می‌تواند به کارگران کمک کند تا وظایف خود را سریع‌تر و کارآمدتر انجام دهند، اما این کار هزینه اجتماعی دارد: احتمال اینکه دیگران آنها را تنبل، بی‌کفایت یا ناتوان بدانند، بیشتر است.

این مطالعه که توسط تیمی از دانشمندان علوم اجتماعی انجام شده است، مبتنی بر نظریه انتساب است - این ایده که افراد تمایل دارند اعمال دیگران را بر اساس انگیزه‌ها یا توانایی‌های ذاتی خود تفسیر کنند تا شرایط. به عنوان مثال، درخواست کمک گاهی اوقات به عنوان نشانه ضعف شخصی تلقی می‌شود. به طور مشابه، استفاده از هوش مصنوعی می‌تواند به عنوان فقدان توانایی یا تلاش تلقی شود، نه ابزاری معتبر برای بهره‌وری.

چت جی پی تی ادوبی استوک
افرادی که در محل کار از ChatGPT استفاده می‌کنند، به تنبلی و بی‌کفایتی متهم می‌شوند. عکس: Adobe Stock

در چهار آزمایش که شامل بیش از ۴۴۰۰ شرکت‌کننده بود، این تیم به نتایج قابل توجهی دست یافت. در آزمایش اول، شرکت‌کنندگان تصور می‌کردند که با استفاده از هوش مصنوعی یا ابزارهای سنتی، کاری را انجام می‌دهند، سپس پیش‌بینی می‌کردند که چگونه توسط همکاران و مدیرانشان قضاوت خواهند شد. این افراد نگران بودند که به عنوان تنبل، قابل تعویض و کم‌تلاش‌تر دیده شوند. آنها گفتند که نمی‌خواهند استفاده خود از هوش مصنوعی را عمومی کنند.

آزمایش دوم نشان داد که این سوگیری واقعاً وجود دارد. از شرکت‌کنندگان خواسته شد تا یک کارمند فرضی را ارزیابی کنند: کسی که از هوش مصنوعی استفاده می‌کرد، کسی که از همکارش کمک می‌خواست و کسی که خودش این کار را انجام می‌داد. کاربران هوش مصنوعی تنبل‌تر، کم‌صلاحیت‌تر، کم‌تلاش‌تر و کم‌استقلال‌تر از دو گروه دیگر دیده شدند. نکته قابل توجه این است که این برداشت صرف نظر از جنسیت، سن یا صنعت کارمند به تصویر کشیده شده، ثابت بود.

در آزمایش سوم، بررسی شد که آیا این سوگیری‌ها بر تصمیمات واقعی تأثیر می‌گذارند یا خیر. یک گروه از شرکت‌کنندگان نقش استخدام‌کننده را ایفا کردند و کاندیداها را بر اساس اینکه آیا کاندیداها از هوش مصنوعی در شغل خود استفاده می‌کنند یا خیر، انتخاب کردند. گروه استخدام‌کنندگانی که با هوش مصنوعی ناآشنا بودند، تمایل داشتند کاندیداهایی را انتخاب کنند که از هوش مصنوعی نیز استفاده نمی‌کردند. برعکس، کسانی که مرتباً از هوش مصنوعی استفاده می‌کردند، راحت‌تر بودند و تمایل داشتند کاندیداهایی را انتخاب کنند که از آن استفاده می‌کردند. این نشان می‌دهد که تجربه شخصی با این فناوری تأثیر زیادی بر نگرش ارزیابان دارد.

در آزمایش نهایی، تیم بررسی کرد که آیا موقعیت‌های شغلی خاص این سوگیری را تغییر می‌دهند یا خیر. وقتی کاندیداها برای کارهای دیجیتالی، مانند نوشتن ایمیل، درخواست می‌دادند، کاربران هوش مصنوعی تنبل تلقی نمی‌شدند و حتی امتیاز بالاتری می‌گرفتند. با این حال، وقتی کاندیداها برای کارهای دستی، مانند یادداشت‌برداری با دست، درخواست می‌دادند، کاربران هوش مصنوعی همچنان امتیاز کمتری می‌گرفتند. نتایج نشان داد که قوی‌ترین سوگیری‌ها زمانی رخ می‌داد که کاربران هوش مصنوعی کارهایی را انجام می‌دادند که نیازی به هوش مصنوعی نداشتند.

جالب اینجاست که شرکت‌کنندگانی که به استفاده منظم از هوش مصنوعی اعتراف کردند، کمتر احتمال داشت که دیگران را به طور منفی قضاوت کنند، که نشان می‌دهد آشنایی و تجربه در دنیای واقعی می‌تواند انگ اجتماعی را کاهش دهد. جسیکا ریف، نویسنده اصلی و دانشجوی دکترا در دانشکده بازرگانی فوکوا دانشگاه دوک، گفت که او این پروژه را پس از شنیدن نظرات کارمندانی که نگرانی خود را در مورد قضاوت شدن هنگام استفاده از هوش مصنوعی ابراز می‌کردند، حتی اگر عملکرد کاری آنها کاهش نیافته بود، آغاز کرد.

این مطالعه از نقاط قوت روش‌شناختی مانند موقعیت‌های کنترلیِ با دقت ساخته‌شده برخوردار است. با این حال، نویسنده محدودیت‌هایی را نیز می‌پذیرد، مانند اینکه موقعیت‌ها فرضی هستند و نه مشاهدات واقعی، و اینکه ارزیابان مستقیماً با افراد مورد ارزیابی آشنا نیستند، که ممکن است در یک محیط کار واقعی متفاوت باشد.

این یافته‌ها تأکید می‌کنند که اگرچه هوش مصنوعی در حال تبدیل شدن به ابزاری مفید برای افزایش بهره‌وری است، اما استفاده از آن باید چگونگی تأثیر آن بر تصویر و شهرت شخصی را نیز در نظر بگیرد. نتایج این تحقیق یادآوری می‌کند: برای اینکه هوش مصنوعی واقعاً به یک دستیار مؤثر تبدیل شود، خود محیط کار باید برداشت خود را تغییر دهد و از برچسب زدن عجولانه به کاربران هوش مصنوعی به عنوان بی‌کفایت یا تنبل خودداری کند. و کارگران علاوه بر دانستن نحوه بهره‌گیری از فناوری، باید شفافیت را نیز حفظ کنند، در عین حال مهارت‌ها و نشانه‌های شخصی خود را توسعه دهند تا در تصویر ایجاد شده توسط هوش مصنوعی "حل" نشوند.

(طبق گفته PsyPost)

ترافیک وب‌سایت‌ها از زمان ظهور ChatGPT و جستجوی هوش مصنوعی به شدت کاهش یافته است . ترافیک از ChatGPT به سایت‌های خبری در حال افزایش است، اما این افزایش برای جبران کاهش ترافیک کافی نیست، زیرا مردم به طور فزاینده‌ای اخبار را مستقیماً از چت‌بات‌های هوش مصنوعی یا نتایج جستجوی مبتنی بر هوش مصنوعی می‌خوانند.

منبع: https://vietnamnet.vn/su-dung-chatgpt-trong-cong-vic-bi-danh-gia-luoi-bieng-kem-nang-luc-2422059.html