Nowe badanie opublikowane w czasopiśmie naukowym Proceedings of the National Academy of Sciences (PNAS) pokazuje, że choć sztuczna inteligencja generatywna, np. ChatGPT, może pomóc pracownikom wykonywać zadania szybciej i wydajniej, wiąże się to z pewnym kosztem społecznym: istnieje większe prawdopodobieństwo, że inni będą postrzegani jako leniwi, niekompetentni lub niekompetentni.
Badanie, przeprowadzone przez zespół socjologów, opiera się na teorii atrybucji – koncepcji, zgodnie z którą ludzie interpretują działania innych na podstawie ich wewnętrznych motywacji lub umiejętności, a nie okoliczności. Na przykład, proszenie o pomoc jest czasami postrzegane jako oznaka osobistej słabości. Podobnie, korzystanie ze sztucznej inteligencji może być postrzegane jako brak umiejętności lub wysiłku, a nie jako wartościowe narzędzie do zwiększania efektywności.

W czterech eksperymentach z udziałem ponad 4400 uczestników zespół osiągnął niezwykłe rezultaty. W pierwszym eksperymencie uczestnicy wyobrażali sobie wykonanie zadania za pomocą sztucznej inteligencji lub tradycyjnych narzędzi, a następnie przewidywali, jak zostaną ocenieni przez kolegów i przełożonych. Osoby te obawiały się, że zostaną uznane za leniwe, łatwe do zastąpienia i mniej sumienne. Stwierdziły, że nie chcą nagłaśniać faktu, że korzystają ze sztucznej inteligencji.
Drugi eksperyment wykazał, że to uprzedzenie rzeczywiście występuje. Uczestników poproszono o ocenę hipotetycznego pracownika: takiego, który korzystał ze sztucznej inteligencji, takiego, który poprosił o pomoc współpracownika, oraz takiego, który zrobił to sam. Użytkownicy sztucznej inteligencji byli postrzegani jako leniwsi, mniej kompetentni, mniej pracowici i mniej niezależni niż dwie pozostałe grupy. Co ciekawe, to postrzeganie było spójne niezależnie od płci, wieku czy branży, w której pracował przedstawiony pracownik.
Trzeci eksperyment miał na celu sprawdzenie, czy te uprzedzenia wpływają na rzeczywiste decyzje. Jedna grupa uczestników pełniła rolę rekruterów, wybierając kandydatów na podstawie tego, czy korzystali oni ze sztucznej inteligencji w swojej pracy. Grupa rekruterów niezaznajomionych ze sztuczną inteligencją zazwyczaj wybierała kandydatów, którzy również z niej nie korzystali. Z kolei ci, którzy często korzystali ze sztucznej inteligencji, czuli się bardziej komfortowo i wybierali kandydatów, którzy z niej korzystali. Sugeruje to, że osobiste doświadczenia z tą technologią mają duży wpływ na nastawienie oceniających.
W ostatnim eksperymencie zespół zbadał, czy konkretne sytuacje zawodowe mogą wpłynąć na to uprzedzenie. Kiedy kandydaci aplikowali na zadania cyfrowe, takie jak pisanie e-maili, użytkownicy AI nie byli postrzegani jako leniwi, a nawet byli oceniani wyżej. Jednak gdy kandydaci aplikowali na zadania manualne, takie jak ręczne sporządzanie notatek, użytkownicy AI nadal byli oceniani niżej. Wyniki pokazały, że najsilniejsze uprzedzenia występowały, gdy użytkownicy AI wykonywali zadania niewymagające AI.
Co ciekawe, uczestnicy, którzy przyznali się do regularnego korzystania ze sztucznej inteligencji, rzadziej oceniali innych negatywnie, co sugeruje, że znajomość i doświadczenie w realnym świecie mogą zmniejszyć stygmatyzację. Główna autorka badania, Jessica Reif, doktorantka w Fuqua School of Business na Uniwersytecie Duke'a, powiedziała, że rozpoczęła projekt po wysłuchaniu pracowników, którzy wyrazili obawy dotyczące bycia ocenianym podczas korzystania ze sztucznej inteligencji, mimo że ich wydajność w pracy nie spadła.
Niniejsze badanie ma mocne strony metodologiczne, takie jak starannie skonstruowane sytuacje kontrolne. Autorka dostrzega jednak również ograniczenia, takie jak hipotetyczne, a nie rzeczywiste obserwacje, sytuacje oceniające, które nie znają bezpośrednio ocenianych osób, co może być inne w rzeczywistym środowisku pracy.
Odkrycia te podkreślają, że choć sztuczna inteligencja staje się użytecznym narzędziem zwiększającym produktywność, jej wykorzystanie wymaga również uwzględnienia wpływu na wizerunek i reputację. Wyniki badań stanowią przestrogę: aby sztuczna inteligencja stała się naprawdę skutecznym asystentem, samo środowisko pracy musi zmienić swoje postrzeganie, unikając pochopnego etykietowania użytkowników AI jako niekompetentnych lub leniwych. Pracownicy, oprócz umiejętności korzystania z technologii, powinni również zachować transparentność, rozwijając jednocześnie umiejętności i osobiste piętno, aby nie „rozpłynąć się” w wizerunku kreowanym przez sztuczną inteligencję.
(Według PsyPost)

Źródło: https://vietnamnet.vn/su-dung-chatgpt-trong-cong-vic-bi-danh-gia-luoi-bieng-kem-nang-luc-2422059.html
Komentarz (0)