Uit een nieuw onderzoek, gepubliceerd in het wetenschappelijke tijdschrift Proceedings of the National Academy of Sciences (PNAS), blijkt dat generatieve AI zoals ChatGPT werknemers kan helpen taken sneller en efficiënter uit te voeren, maar dat dit een maatschappelijke prijs heeft: ze worden door anderen eerder als lui, incompetent of onbekwaam gezien.

Het onderzoek, uitgevoerd door een team van sociale wetenschappers, is gebaseerd op de attributietheorie – het idee dat mensen de acties van anderen interpreteren op basis van hun intrinsieke motivaties of vaardigheden in plaats van de omstandigheden. Zo wordt het vragen om hulp soms gezien als een teken van persoonlijke zwakte. Evenzo kan het gebruik van AI worden gezien als een gebrek aan vaardigheid of inspanning, in plaats van een valide hulpmiddel voor efficiëntie.

chatgpt adobe stock
Mensen die ChatGPT op het werk gebruiken, worden ervan beschuldigd lui en incompetent te zijn. Foto: Adobe Stock

In vier experimenten met meer dan 4400 deelnemers vond het team opmerkelijke resultaten. In het eerste experiment stelden deelnemers zich voor dat ze een taak uitvoerden met behulp van AI of traditionele tools, en voorspelden vervolgens hoe ze beoordeeld zouden worden door hun collega's en managers. Deze mensen maakten zich zorgen dat ze als lui, vervangbaar en minder ijverig zouden worden gezien. Ze gaven aan dat ze hun gebruik van AI niet openbaar wilden maken.

Een tweede experiment toonde aan dat deze bias inderdaad aanwezig is. Deelnemers werd gevraagd een hypothetische medewerker te beoordelen: iemand die AI gebruikte, iemand die een collega om hulp vroeg en iemand die het zelf deed. De AI-gebruikers werden gezien als luier, minder competent, minder ijverig en minder onafhankelijk dan de andere twee groepen. Opmerkelijk genoeg was deze perceptie consistent, ongeacht het geslacht, de leeftijd of de branche van de afgebeelde medewerker.

Een derde experiment testte of deze vooroordelen daadwerkelijke beslissingen beïnvloedden. Eén groep deelnemers fungeerde als recruiter en selecteerde kandidaten op basis van het al dan niet gebruiken van AI in hun functie. De groep recruiters die niet bekend was met AI, had de neiging om kandidaten te selecteren die ook geen AI gebruikten. Degenen die AI daarentegen regelmatig gebruikten, voelden zich meer op hun gemak en kozen eerder kandidaten die dat wel deden. Dit suggereert dat persoonlijke ervaring met de technologie een grote impact heeft op de houding van de beoordelaars.

In een laatste experiment onderzocht het team of specifieke werksituaties deze bias zouden veranderen. Wanneer kandidaten solliciteerden naar digitale taken, zoals het opstellen van e-mails, werden AI-gebruikers niet als lui beschouwd en zelfs hoger beoordeeld. Wanneer kandidaten echter solliciteerden naar handmatige taken, zoals het maken van aantekeningen met de hand, werden AI-gebruikers nog steeds lager beoordeeld. De resultaten toonden aan dat de sterkste biases optraden wanneer AI-gebruikers taken uitvoerden waarvoor geen AI nodig was.

Interessant genoeg bleken deelnemers die toegaven regelmatig AI te gebruiken, minder geneigd om anderen negatief te beoordelen. Dit suggereert dat vertrouwdheid en praktijkervaring stigmatisering kunnen verminderen. Hoofdauteur Jessica Reif, promovendus aan de Fuqua School of Business van Duke University, zei dat ze het project startte nadat ze van medewerkers had gehoord dat ze zich zorgen maakten over de beoordeling van AI, ook al waren hun werkprestaties niet achteruitgegaan.

Deze studie heeft methodologische sterke punten, zoals zorgvuldig geconstrueerde controlesituaties. De auteur erkent echter ook beperkingen, zoals het feit dat de situaties hypothetisch zijn in plaats van feitelijke observaties, en dat de beoordelaars niet direct bekend zijn met de beoordeelde personen, wat in een echte werkomgeving anders kan zijn.

Deze bevindingen benadrukken dat AI weliswaar een nuttig hulpmiddel wordt om de productiviteit te verhogen, maar dat er bij het gebruik van AI ook rekening moet worden gehouden met de invloed ervan op het persoonlijke imago en de reputatie. De onderzoeksresultaten herinneren ons eraan: wil AI echt een effectieve assistent worden, dan moet de werkomgeving zelf haar perceptie veranderen en AI-gebruikers niet te snel als incompetent of lui bestempelen. Werknemers moeten niet alleen weten hoe ze technologie moeten inzetten, maar ook transparant blijven en tegelijkertijd vaardigheden en persoonlijke indrukken ontwikkelen om niet te "verdwijnen" in het beeld dat AI creëert.

(Volgens PsyPost)

Het websiteverkeer is sterk gedaald sinds ChatGPT en AI-zoekopdrachten . Het verkeer van ChatGPT naar nieuwssites neemt toe, maar niet genoeg om de daling te compenseren, aangezien mensen steeds vaker nieuws rechtstreeks via AI-chatbots of AI-zoekresultaten lezen.

Bron: https://vietnamnet.vn/su-dung-chatgpt-trong-cong-vic-bi-danh-gia-luoi-bieng-kem-nang-luc-2422059.html