Un nuevo estudio publicado en la revista científica Proceedings of the National Academy of Sciences (PNAS) muestra que, si bien la IA generativa como ChatGPT puede ayudar a los trabajadores a completar tareas de manera más rápida y eficiente, esto tiene un costo social: es más probable que los demás los vean como perezosos, incompetentes o incompetentes.
El estudio, realizado por un equipo de científicos sociales, se basa en la teoría de la atribución: la idea de que las personas tienden a interpretar las acciones de los demás en función de sus motivaciones o capacidades intrínsecas, más que de las circunstancias. Por ejemplo, pedir ayuda a veces se considera una señal de debilidad personal. De igual manera, el uso de la IA puede verse como una falta de capacidad o esfuerzo, en lugar de una herramienta válida para la eficiencia.

En cuatro experimentos con más de 4400 participantes, el equipo obtuvo resultados notables. En el primer experimento, los participantes imaginaron completar una tarea usando IA o herramientas tradicionales y luego predijeron cómo serían juzgados por sus colegas y gerentes. A estas personas les preocupaba ser percibidas como perezosas, reemplazables y poco diligentes. Dijeron que no querían divulgar su uso de IA.
Un segundo experimento demostró la existencia de este sesgo. Se pidió a los participantes que calificaran a un empleado hipotético: uno que usaba IA, uno que pedía ayuda a un compañero y uno que la hacía él mismo. Los usuarios de IA fueron percibidos como más perezosos, menos competentes, menos diligentes y menos independientes que los otros dos grupos. Sorprendentemente, esta percepción se mantuvo independientemente del género, la edad o el sector del empleado representado.
Un tercer experimento evaluó si estos sesgos influyeron en las decisiones reales. Un grupo de participantes actuó como reclutadores, seleccionando candidatos según si utilizaban IA en sus trabajos. El grupo de reclutadores que no estaba familiarizado con la IA tendía a seleccionar candidatos que tampoco la utilizaban. Por el contrario, quienes la utilizaban con frecuencia se sentían más cómodos y tendían a seleccionar candidatos que sí la utilizaban. Esto sugiere que la experiencia personal con la tecnología influye considerablemente en la actitud de los evaluadores.
En un experimento final, el equipo analizó si situaciones laborales específicas alteraban este sesgo. Cuando los candidatos solicitaban tareas digitales, como redactar correos electrónicos, los usuarios de IA no eran percibidos como perezosos e incluso recibían una calificación más alta. Sin embargo, cuando los candidatos solicitaban tareas manuales, como tomar notas a mano, los usuarios de IA seguían recibiendo una calificación más baja. Los resultados mostraron que los sesgos más fuertes se producían cuando los usuarios de IA realizaban tareas que no requerían IA.
Curiosamente, los participantes que admitieron usar IA con regularidad fueron menos propensos a juzgar negativamente a los demás, lo que sugiere que la familiaridad y la experiencia en el mundo real pueden reducir el estigma. La autora principal, Jessica Reif, estudiante de doctorado de la Escuela de Negocios Fuqua de la Universidad de Duke, comentó que inició el proyecto tras recibir información de empleados que expresaron su preocupación por ser juzgados al usar IA, a pesar de que su rendimiento laboral no había disminuido.
Este estudio presenta fortalezas metodológicas, como la cuidadosa construcción de situaciones de control. Sin embargo, el autor también reconoce limitaciones, como que las situaciones son hipotéticas y no observaciones reales, y que los evaluadores no conocen directamente a las personas evaluadas, lo cual puede ser diferente en un entorno laboral real.
Estos hallazgos enfatizan que, si bien la IA se está convirtiendo en una herramienta útil para aumentar la productividad, su uso también debe considerar cómo afecta a la imagen y reputación personal. Los resultados de la investigación son un recordatorio: para que la IA se convierta realmente en un asistente eficaz, el propio entorno laboral debe cambiar su percepción, evitando etiquetar apresuradamente a los usuarios de IA como incompetentes o perezosos. Y los trabajadores, además de saber aprovechar la tecnología, también deben mantener la transparencia, a la vez que desarrollan habilidades y su huella personal para no verse "disolvedos" en la imagen creada por la IA.
(Según PsyPost)

Fuente: https://vietnamnet.vn/su-dung-chatgpt-trong-cong-vic-bi-danh-gia-luoi-bieng-kem-nang-luc-2422059.html
Kommentar (0)