Um novo estudo publicado na revista científica Proceedings of the National Academy of Sciences (PNAS) mostra que, embora a IA generativa como o ChatGPT possa ajudar os trabalhadores a concluir tarefas de forma mais rápida e eficiente, isso tem um custo social: eles têm maior probabilidade de serem vistos pelos outros como preguiçosos, incompetentes ou incompetentes.
O estudo, conduzido por uma equipe de cientistas sociais, baseia-se na teoria da atribuição – a ideia de que as pessoas tendem a interpretar as ações dos outros com base em suas motivações ou habilidades intrínsecas, e não nas circunstâncias. Por exemplo, pedir ajuda às vezes é visto como um sinal de fraqueza pessoal. Da mesma forma, o uso de IA pode ser visto como falta de habilidade ou esforço, em vez de uma ferramenta válida para eficiência.

Em quatro experimentos envolvendo mais de 4.400 participantes, a equipe encontrou resultados notáveis. No primeiro experimento, os participantes imaginaram concluir uma tarefa usando IA ou ferramentas tradicionais e, em seguida, previram como seriam avaliados por seus colegas e gerentes. Essas pessoas se preocupavam em ser vistas como preguiçosas, substituíveis e menos diligentes. Elas disseram que não queriam divulgar seu uso de IA.
Um segundo experimento mostrou que esse viés está de fato presente. Os participantes foram solicitados a avaliar um funcionário hipotético: um que usava IA, um que pedia ajuda a um colega e um que fazia isso sozinho. Os usuários de IA foram vistos como mais preguiçosos, menos competentes, menos diligentes e menos independentes do que os outros dois grupos. Notavelmente, essa percepção foi consistente independentemente do gênero, idade ou setor do funcionário retratado.
Um terceiro experimento testou se esses vieses influenciavam decisões reais. Um grupo de participantes atuou como recrutadores, selecionando candidatos com base no uso ou não de IA em seus trabalhos. O grupo de recrutadores não familiarizados com IA tendia a selecionar candidatos que também não a utilizavam. Por outro lado, aqueles que usavam IA com frequência se sentiam mais confortáveis e tendiam a selecionar candidatos que a utilizavam. Isso sugere que a experiência pessoal com a tecnologia tem um grande impacto nas atitudes dos avaliadores.
Em um experimento final, a equipe analisou se situações específicas de trabalho alterariam esse viés. Quando os candidatos se candidataram a tarefas digitais, como redigir e-mails, os usuários de IA não foram percebidos como preguiçosos e até receberam avaliações mais altas. No entanto, quando os candidatos se candidataram a tarefas manuais, como fazer anotações à mão, os usuários de IA ainda receberam avaliações mais baixas. Os resultados mostraram que os vieses mais fortes ocorreram quando os usuários de IA realizaram tarefas que não exigiam IA.
Curiosamente, os participantes que admitiram usar IA regularmente apresentaram menor probabilidade de julgar os outros negativamente, sugerindo que a familiaridade e a experiência no mundo real podem reduzir o estigma. A autora principal, Jessica Reif, doutoranda na Fuqua School of Business da Duke University, disse que iniciou o projeto após ouvir funcionários que expressaram preocupação em serem julgados ao usar IA, mesmo sem que seu desempenho no trabalho tivesse piorado.
Este estudo apresenta pontos fortes metodológicos, como situações de controle cuidadosamente construídas. No entanto, o autor também reconhece limitações, como o fato de as situações serem hipotéticas e não observações reais, e os avaliadores não terem conhecimento direto das pessoas avaliadas, o que pode ser diferente em um ambiente de trabalho real.
Essas descobertas enfatizam que, embora a IA esteja se tornando uma ferramenta útil para aumentar a produtividade, seu uso também precisa considerar como ela afeta a imagem e a reputação pessoal. Os resultados da pesquisa servem como um lembrete: para que a IA se torne realmente uma assistente eficaz, o próprio ambiente de trabalho precisa mudar sua percepção, evitando rotular precipitadamente os usuários de IA como incompetentes ou preguiçosos. E os trabalhadores, além de saberem como aproveitar a tecnologia, também devem manter a transparência, ao mesmo tempo em que desenvolvem habilidades e marcas pessoais para não serem "dissolvidos" na imagem criada pela IA.
(De acordo com o PsyPost)

Fonte: https://vietnamnet.vn/su-dung-chatgpt-trong-cong-vic-bi-danh-gia-luoi-bieng-kem-nang-luc-2422059.html
Comentário (0)