Une nouvelle étude publiée dans la revue scientifique Proceedings of the National Academy of Sciences (PNAS) montre que si l'IA générative comme ChatGPT peut aider les travailleurs à accomplir des tâches plus rapidement et plus efficacement, elle a un coût social : ils sont plus susceptibles d'être considérés par les autres comme paresseux, incompétents ou incompétents.
L'étude, menée par une équipe de chercheurs en sciences sociales, s'appuie sur la théorie de l'attribution, selon laquelle les individus ont tendance à interpréter les actions d'autrui en fonction de leurs motivations ou capacités intrinsèques plutôt que des circonstances. Par exemple, demander de l'aide est parfois perçu comme un signe de faiblesse personnelle. De même, utiliser l'IA peut être perçu comme un manque de compétence ou d'effort, plutôt que comme un outil efficace.

Au cours de quatre expériences impliquant plus de 4 400 participants, l'équipe a obtenu des résultats remarquables. Lors de la première expérience, les participants imaginaient effectuer une tâche à l'aide de l'IA ou d'outils traditionnels, puis prédisaient le jugement qu'ils porteraient sur eux. Ces personnes craignaient d'être perçues comme paresseuses, remplaçables et moins assidues. Elles ont déclaré ne pas vouloir rendre publique leur utilisation de l'IA.
Une deuxième expérience a démontré la présence de ce biais. Les participants ont été invités à évaluer un employé hypothétique : l’un ayant utilisé l’IA, l’autre ayant demandé l’aide d’un collègue et l’autre l’ayant fait lui-même. Les utilisateurs de l’IA étaient perçus comme plus paresseux, moins compétents, moins appliqués et moins indépendants que les deux autres groupes. Étonnamment, cette perception était constante, quels que soient le sexe, l’âge ou le secteur d’activité de l’employé représenté.
Une troisième expérience a testé si ces biais influençaient les décisions. Un groupe de participants a joué le rôle de recruteurs, sélectionnant les candidats selon qu'ils utilisaient ou non l'IA dans leur travail. Le groupe de recruteurs peu familiers avec l'IA avait tendance à sélectionner des candidats qui n'utilisaient pas non plus l'IA. À l'inverse, ceux qui utilisaient fréquemment l'IA étaient plus à l'aise et avaient tendance à sélectionner des candidats qui l'utilisaient. Cela suggère que l'expérience personnelle avec la technologie a un impact important sur l'attitude des évaluateurs.
Lors d'une dernière expérience, l'équipe a cherché à savoir si des situations professionnelles spécifiques pouvaient modifier ce biais. Lorsque les candidats postulaient à des tâches numériques, comme la rédaction d'e-mails, les utilisateurs d'IA n'étaient pas perçus comme paresseux et étaient même mieux notés. En revanche, lorsque les candidats postulaient à des tâches manuelles, comme la prise de notes, les utilisateurs d'IA étaient toujours moins bien notés. Les résultats ont montré que les biais les plus marqués se produisaient lorsque les utilisateurs d'IA effectuaient des tâches ne nécessitant pas d'IA.
Il est intéressant de noter que les participants qui admettaient utiliser régulièrement l'IA étaient moins susceptibles de juger les autres négativement, ce qui suggère que la familiarité et l'expérience concrète peuvent réduire la stigmatisation. L'auteure principale, Jessica Reif, doctorante à la Fuqua School of Business de l'Université Duke, a déclaré avoir lancé le projet après avoir entendu des employés s'inquiéter d'être jugés lorsqu'ils utilisent l'IA, même si leurs performances professionnelles n'avaient pas diminué.
Cette étude présente des atouts méthodologiques, notamment des situations témoins soigneusement construites. Cependant, l'auteur reconnaît également des limites : les situations sont hypothétiques et non des observations réelles, et les évaluateurs ne connaissent pas directement les personnes évaluées, ce qui peut différer en situation de travail réelle.
Ces résultats soulignent que, si l'IA devient un outil précieux pour accroître la productivité, son utilisation doit également tenir compte de son impact sur l'image et la réputation personnelles. Les résultats de la recherche rappellent que pour que l'IA devienne un assistant efficace, l'environnement de travail lui-même doit changer de perception, en évitant de qualifier hâtivement ses utilisateurs d'incompétents ou de paresseux. Les travailleurs, outre l'apprentissage de l'utilisation des technologies, doivent également faire preuve de transparence, tout en développant leurs compétences et leur empreinte personnelle afin de ne pas se fondre dans l'image créée par l'IA.
(Selon PsyPost)

Source : https://vietnamnet.vn/su-dung-chatgpt-trong-cong-vic-bi-danh-gia-luoi-bieng-kem-nang-luc-2422059.html
Comment (0)