En ny studie publicerad i den vetenskapliga tidskriften Proceedings of the National Academy of Sciences (PNAS) visar att även om generativ AI som ChatGPT kan hjälpa arbetare att slutföra uppgifter snabbare och mer effektivt, har det en samhällskostnad: de är mer benägna att ses av andra som lata, inkompetenta eller oförmögna.

Studien, som genomförts av ett team av samhällsvetare, bygger på attributionsteorin – idén att människor tenderar att tolka andras handlingar baserat på deras inneboende motiv eller förmågor snarare än omständigheterna. Till exempel ses det ibland som ett tecken på personlig svaghet att be om hjälp. På liknande sätt kan användning av AI ses som brist på förmåga eller ansträngning, snarare än ett giltigt verktyg för effektivitet.

chatgpt adobe stock
Personer som använder ChatGPT på jobbet anklagas för att vara lata och inkompetenta. Foto: Adobe Stock

I fyra experiment med fler än 4 400 deltagare fann teamet anmärkningsvärda resultat. I det första experimentet föreställde sig deltagarna att de slutförde en uppgift med hjälp av AI eller traditionella verktyg, och förutspådde sedan hur de skulle bedömas av sina kollegor och chefer. Dessa personer oroade sig för att bli sedda som lata, utbytbara och mindre flitiga. De sa att de inte ville offentliggöra sin användning av AI.

Ett andra experiment visade att denna bias faktiskt finns. Deltagarna ombads att betygsätta en hypotetisk anställd: en som använde AI, en som bad en kollega om hjälp och en som gjorde det själva. AI-användarna sågs som latare, mindre kompetenta, mindre flitiga och mindre självständiga än de andra två grupperna. Anmärkningsvärt nog var denna uppfattning konsekvent oavsett kön, ålder eller bransch hos den avbildade anställde.

Ett tredje experiment testade om dessa fördomar påverkade faktiska beslut. En grupp deltagare agerade som rekryterare och valde ut kandidater baserat på huruvida kandidaterna använde AI i sina jobb eller inte. Gruppen av rekryterare som inte var bekanta med AI tenderade att välja kandidater som inte heller använde AI. Omvänt var de som ofta använde AI mer bekväma och tenderade att välja kandidater som gjorde det. Detta tyder på att personlig erfarenhet av tekniken har stor inverkan på bedömarnas attityder.

I ett sista experiment undersökte teamet om specifika arbetssituationer skulle förändra denna bias. När kandidater sökte digitala uppgifter, som att skriva e-postmeddelanden, uppfattades inte AI-användare som lata och fick ännu högre betyg. Men när kandidater sökte manuella uppgifter, som att anteckna för hand, fick AI-användare fortfarande lägre betyg. Resultaten visade att de starkaste biaserna uppstod när AI-användare utförde uppgifter som inte krävde AI.

Intressant nog var deltagare som erkände att de regelbundet använde AI mindre benägna att döma andra negativt, vilket tyder på att förtrogenhet och verkliga erfarenheter kan minska stigmatisering. Huvudförfattaren Jessica Reif, doktorand vid Duke Universitys Fuqua School of Business, sa att hon började projektet efter att ha hört från anställda som uttryckte oro över att bli dömda när de använde AI, trots att deras arbetsprestation inte hade försämrats.

Denna studie har metodologiska styrkor såsom noggrant konstruerade kontrollsituationer. Författaren erkänner dock även begränsningar, såsom att situationerna är hypotetiska snarare än faktiska observationer, och bedömarna är inte direkt bekanta med de personer som bedöms, vilket kan vara annorlunda i en verklig arbetsmiljö.

Dessa resultat betonar att även om AI håller på att bli ett användbart verktyg för att öka produktiviteten, måste användningen av AI också beakta hur den påverkar den personliga imagen och ryktet. Forskningsresultaten är en påminnelse: för att AI verkligen ska bli en effektiv assistent måste själva arbetsmiljön förändras och man undviker att förhastat stämpla AI-användare som inkompetenta eller lata. Och arbetstagare bör, förutom att veta hur man utnyttjar tekniken, också upprätthålla transparens, samtidigt som de utvecklar färdigheter och personliga avtryck för att inte "upplösas" i den image som skapas av AI.

(Enligt PsyPost)

Webbplatstrafiken har minskat kraftigt sedan ChatGPT och AI-sökningar . Trafiken från ChatGPT till nyhetssajter ökar, men inte tillräckligt för att kompensera för trafiknedgången eftersom människor i allt högre grad läser nyheter direkt från AI-chattrobotar eller AI-aktiverade sökresultat.

Källa: https://vietnamnet.vn/su-dung-chatgpt-trong-cong-vic-bi-danh-gia-luoi-bieng-kem-nang-luc-2422059.html