Une nouvelle étude publiée dans la revue scientifique Proceedings of the National Academy of Sciences (PNAS) montre que si l'IA générative comme ChatGPT peut aider les travailleurs à accomplir des tâches plus rapidement et plus efficacement, elle a un coût social : ils sont plus susceptibles d'être considérés par les autres comme paresseux, incompétents ou incompétents.

L'étude, menée par une équipe de chercheurs en sciences sociales, s'appuie sur la théorie de l'attribution, selon laquelle les individus ont tendance à interpréter les actions d'autrui en fonction de leurs motivations ou capacités intrinsèques plutôt que des circonstances. Par exemple, demander de l'aide est parfois perçu comme un signe de faiblesse personnelle. De même, l'utilisation de l'IA peut être perçue comme un manque de compétence ou d'effort, plutôt que comme un outil légitime pour accroître l'efficacité.

chatgpt adobe stock
Les utilisateurs de ChatGPT au travail sont accusés de paresse et d'incompétence. Photo : Adobe Stock

Au cours de quatre expériences impliquant plus de 4 400 participants, l'équipe a obtenu des résultats frappants. Lors de la première expérience, les participants imaginaient accomplir une tâche à l'aide de l'IA ou d'outils traditionnels, puis prédisaient la manière dont ils seraient perçus par leurs collègues et leurs responsables. Ceux qui ont réalisé cette expérience craignaient d'être perçus comme paresseux, remplaçables et moins assidus. Ils ont déclaré ne pas vouloir rendre publique leur utilisation de l'IA.

Une deuxième expérience a démontré la véracité de ce biais. Les participants ont été invités à évaluer un employé hypothétique : l'un ayant utilisé l'IA, l'autre ayant demandé l'aide d'un collègue et l'autre l'ayant fait lui-même. Les utilisateurs de l'IA étaient perçus comme plus paresseux, moins compétents, moins appliqués et moins indépendants que les deux autres groupes. Étonnamment, cette perception était constante, quels que soient le sexe, l'âge ou le secteur d'activité de l'employé représenté.

Une troisième expérience a testé si ces biais influençaient les décisions. Un groupe de participants a joué le rôle de recruteurs, sélectionnant les candidats selon qu'ils utilisaient ou non l'IA dans leur travail. Les recruteurs peu familiers avec l'IA avaient tendance à sélectionner les candidats qui n'utilisaient pas l'IA. À l'inverse, ceux qui l'utilisaient fréquemment étaient plus à l'aise avec elle et avaient tendance à sélectionner les candidats qui l'utilisaient. Cela suggère que l'expérience personnelle avec la technologie a un impact important sur l'attitude des évaluateurs.

Lors d'une dernière expérience, l'équipe a cherché à savoir si des situations professionnelles spécifiques modifiaient ce biais. Lorsque les candidats postulaient à des tâches numériques, comme la rédaction d'e-mails, les utilisateurs d'IA n'étaient pas perçus comme paresseux et étaient même mieux notés. En revanche, lorsque les candidats postulaient à des tâches manuelles, comme la prise de notes manuscrites, les utilisateurs d'IA étaient toujours moins bien notés. Les résultats ont montré que le biais le plus marqué se produisait lorsque les utilisateurs d'IA effectuaient des tâches ne nécessitant pas d'IA.

Il est intéressant de noter que les participants déclarant utiliser régulièrement l'IA étaient moins susceptibles de juger négativement les autres utilisateurs, ce qui suggère que la familiarité et l'expérience pratique peuvent réduire la stigmatisation. L'auteure principale, Jessica Reif, doctorante à la Fuqua School of Business de l'Université Duke, a déclaré avoir lancé le projet après avoir entendu des employés s'inquiéter d'être jugés pour leur utilisation de l'IA, même si leurs performances professionnelles n'avaient pas diminué.

Cette étude présente des atouts méthodologiques, notamment des situations témoins soigneusement construites. Cependant, les auteurs reconnaissent également des limites : les situations étaient hypothétiques et non des observations réelles, et les évaluateurs ne se connaissaient pas personnellement, ce qui peut être différent dans un environnement de travail réel.

Ces résultats soulignent que, si l'IA devient un outil utile pour accroître la productivité, son utilisation doit également tenir compte de son impact sur l'image et la réputation personnelles. Les résultats de la recherche rappellent que pour que l'IA devienne un assistant efficace, l'environnement de travail lui-même doit changer de perception, en évitant de qualifier hâtivement ses utilisateurs d'incompétents ou de paresseux. Les travailleurs, outre l'apprentissage de l'utilisation des technologies, doivent également faire preuve de transparence, tout en développant leurs compétences et leur empreinte personnelle afin de ne pas se fondre dans l'image créée par l'IA.

(Selon PsyPost)

Le trafic des sites Web a chuté depuis ChatGPT et la recherche IA Le trafic de ChatGPT vers les sites d'actualités augmente, mais pas suffisamment pour compenser la baisse du trafic, car les gens lisent de plus en plus les actualités directement à partir de chatbots IA ou de résultats de recherche alimentés par l'IA.

Source : https://vietnamnet.vn/su-dung-chatgpt-trong-cong-viec-bi-danh-gia-luoi-bieng-kem-nang-luc-2422059.html