Un nuevo estudio publicado en la revista científica Proceedings of the National Academy of Sciences (PNAS) muestra que, si bien la IA generativa como ChatGPT puede ayudar a los trabajadores a completar tareas de manera más rápida y eficiente, esto tiene un costo social: es más probable que los demás los vean como perezosos, incompetentes o incompetentes.

El estudio, realizado por un equipo de científicos sociales, se basa en la teoría de la atribución: la idea de que las personas tienden a interpretar las acciones de los demás en función de sus motivaciones o capacidades intrínsecas, más que de las circunstancias. Por ejemplo, pedir ayuda a veces se percibe como una señal de debilidad personal. De igual manera, el uso de la IA puede verse como una falta de capacidad o esfuerzo, en lugar de como una herramienta legítima para aumentar la eficiencia.

chatgpt adobe stock
A quienes usan ChatGPT en el trabajo se les acusa de ser perezosos e incompetentes. Foto: Adobe Stock

En cuatro experimentos con más de 4400 participantes, el equipo obtuvo resultados sorprendentes. En el primer experimento, los participantes imaginaron completar una tarea usando IA o herramientas tradicionales y luego predijeron cómo serían percibidos por sus compañeros de trabajo y gerentes. Quienes lo hicieron se preocuparon por ser vistos como perezosos, reemplazables y menos diligentes. Dijeron que no querían revelar públicamente su uso de la IA.

Un segundo experimento demostró que este sesgo es cierto. Se pidió a los participantes que calificaran a un empleado hipotético: uno que usaba IA, uno que pedía ayuda a un compañero y uno que la hacía él mismo. Los usuarios de IA fueron percibidos como más perezosos, menos competentes, menos diligentes y menos independientes que los otros dos grupos. Sorprendentemente, esta percepción fue consistente independientemente del género, la edad o el sector del empleado representado.

Un tercer experimento evaluó si estos sesgos influyeron en las decisiones reales. Un grupo de participantes actuó como reclutadores, seleccionando candidatos según si utilizaban IA en sus trabajos. Los reclutadores que no estaban familiarizados con la IA tendían a seleccionar a candidatos que no la utilizaban. Por el contrario, quienes la utilizaban con frecuencia se sentían más cómodos con ella y tendían a seleccionar a candidatos que sí la utilizaban. Esto sugiere que la experiencia personal con la tecnología tiene un gran impacto en la actitud de los evaluadores.

En un experimento final, el equipo analizó si ciertas situaciones laborales modificarían este sesgo. Cuando los candidatos se postularon para tareas digitales, como redactar correos electrónicos, los usuarios de IA no fueron percibidos como perezosos e incluso obtuvieron una calificación más alta. Sin embargo, cuando los candidatos se postularon para tareas manuales, como tomar notas a mano, los usuarios de IA aún obtuvieron una calificación más baja. Los resultados mostraron que el sesgo más pronunciado se produjo cuando los usuarios de IA realizaron tareas que no requerían IA.

Curiosamente, los participantes que informaron usar IA con regularidad fueron menos propensos a juzgar negativamente a quienes la usaban, lo que sugiere que la familiaridad y la experiencia práctica pueden reducir el estigma. La autora principal, Jessica Reif, estudiante de doctorado en la Escuela de Negocios Fuqua de la Universidad de Duke, comentó que inició el proyecto tras recibir información de empleados que expresaron su preocupación por ser juzgados por usar IA, a pesar de que su rendimiento laboral no había disminuido.

Este estudio presenta fortalezas metodológicas, como la cuidadosa construcción de situaciones de control. Sin embargo, los autores también reconocen limitaciones, como que las situaciones eran hipotéticas y no observaciones reales, y que los evaluadores no se conocían personalmente, lo cual podría ser diferente en entornos laborales reales.

Estos hallazgos enfatizan que, si bien la IA se está convirtiendo en una herramienta útil para aumentar la productividad, su uso también debe considerar cómo afecta la imagen y la reputación personal. Los resultados de la investigación son un recordatorio: para que la IA se convierta realmente en un asistente eficaz, el propio entorno laboral debe cambiar su percepción, evitando etiquetar apresuradamente a los usuarios de IA como incompetentes o perezosos. Y los trabajadores, además de saber cómo aprovechar la tecnología, también deben mantener la transparencia, a la vez que desarrollan habilidades y su huella personal para no "disolverse" en la imagen creada por la IA.

(Según PsyPost)

El tráfico del sitio web se ha desplomado desde ChatGPT y la búsqueda con IA El tráfico desde ChatGPT a los sitios de noticias está aumentando, pero no lo suficiente como para compensar la caída del tráfico, ya que las personas leen cada vez más noticias directamente desde los chatbots de IA o los resultados de búsqueda impulsados por IA.

Fuente: https://vietnamnet.vn/su-dung-chatgpt-trong-cong-viec-bi-danh-gia-luoi-bieng-kem-nang-luc-2422059.html