Nová studie publikovaná ve vědeckém časopise Proceedings of the National Academy of Sciences (PNAS) ukazuje, že ačkoli generativní umělá inteligence, jako je ChatGPT, může pomoci pracovníkům plnit úkoly rychleji a efektivněji, má to své společenské důsledky: je pravděpodobnější, že je ostatní budou vnímat jako líné, neschopné nebo nekompetentní.
Studie, kterou provedl tým sociálních vědců, je založena na teorii atribuce – myšlence, že lidé mají tendenci interpretovat jednání druhých na základě jejich vnitřních motivací nebo schopností, spíše než na základě okolností. Například žádost o pomoc je někdy vnímána jako známka osobní slabosti. Podobně lze používání umělé inteligence vnímat spíše jako nedostatek schopností nebo úsilí než jako platný nástroj pro efektivitu.

Ve čtyřech experimentech, kterých se zúčastnilo více než 4 400 účastníků, tým zjistil pozoruhodné výsledky. V prvním experimentu si účastníci představovali, že splní úkol s využitím umělé inteligence nebo tradičních nástrojů, a poté předpověděli, jak je budou hodnotit jejich kolegové a manažeři. Tito lidé se obávali, že budou vnímáni jako líní, nahraditelní a méně pilní. Uvedli, že nechtějí zveřejňovat své používání umělé inteligence.
Druhý experiment ukázal, že toto zkreslení skutečně existuje. Účastníci byli požádáni, aby ohodnotili hypotetického zaměstnance: jednoho, který používal umělou inteligenci, jednoho, který požádal o pomoc kolegu, a jednoho, který to udělal sám. Uživatelé umělé inteligence byli vnímáni jako línější, méně kompetentní, méně pilní a méně nezávislí než ostatní dvě skupiny. Je pozoruhodné, že toto vnímání bylo konzistentní bez ohledu na pohlaví, věk nebo odvětví zobrazeného zaměstnance.
Třetí experiment testoval, zda tyto předsudky ovlivňují skutečná rozhodnutí. Jedna skupina účastníků fungovala jako náboráři a vybírala kandidáty na základě toho, zda ve své práci používají umělou inteligenci, či nikoli. Skupina náborářů, která s umělou inteligencí nebyla obeznámena, měla tendenci vybírat kandidáty, kteří také umělou inteligenci nepoužívali. Naopak ti, kteří umělou inteligenci používali často, se cítili pohodlněji a měli tendenci vybírat kandidáty, kteří ji používali. To naznačuje, že osobní zkušenost s touto technologií má velký vliv na postoje hodnotitelů.
V závěrečném experimentu se tým zabýval tím, zda by konkrétní pracovní situace tuto zkreslení změnily. Když se kandidáti ucházeli o digitální úkoly, jako je psaní e-mailů, uživatelé umělé inteligence nebyli vnímáni jako líní a byli dokonce hodnoceni výše. Nicméně, když se kandidáti ucházeli o manuální úkoly, jako je psaní poznámek ručně, byli uživatelé umělé inteligence stále hodnoceni níže. Výsledky ukázaly, že nejsilnější zkreslení se vyskytovalo, když uživatelé umělé inteligence vykonávali úkoly, které umělou inteligenci nevyžadovaly.
Je zajímavé, že účastníci, kteří přiznali, že pravidelně používají umělou inteligenci, s menší pravděpodobností negativně hodnotili ostatní, což naznačuje, že znalost prostředí a zkušenosti z reálného světa mohou stigma snižovat. Vedoucí autorka Jessica Reifová, doktorandka na Fuqua School of Business na Duke University, uvedla, že projekt zahájila poté, co slyšela od zaměstnanců, kteří vyjádřili obavy z toho, že budou při používání umělé inteligence souzeni, přestože se jejich pracovní výkon nesnížil.
Tato studie má metodologické silné stránky, jako jsou pečlivě konstruované kontrolní situace. Autor však také uznává omezení, jako je hypotetický, nikoli skutečný stav pozorování, a hodnotitelé nejsou přímo obeznámeni s hodnocenými lidmi, což se může v reálném pracovním prostředí lišit.
Tato zjištění zdůrazňují, že ačkoli se umělá inteligence stává užitečným nástrojem pro zvýšení produktivity, je třeba při jejím používání zvážit také její vliv na osobní image a reputaci. Výsledky výzkumu připomínají: aby se umělá inteligence skutečně stala efektivním asistentem, musí samotné pracovní prostředí změnit své vnímání a vyhnout se ukvapenému označování uživatelů umělé inteligence za neschopné nebo líné. A pracovníci by si kromě toho, že vědí, jak technologie využívat, měli zachovávat transparentnost a zároveň rozvíjet dovednosti a osobní otisky, aby se „nerozpustili“ v image vytvořené umělou inteligencí.
(Podle PsyPostu)

Zdroj: https://vietnamnet.vn/su-dung-chatgpt-trong-cong-vic-bi-danh-gia-luoi-bieng-kem-nang-luc-2422059.html
Komentář (0)