Um grupo de pesquisadores na Alemanha alertou recentemente sobre o risco de viés ao usar chatbots de IA para resumir conteúdo científico. Após analisar 4.900 resumos científicos escritos por humanos, a equipe utilizou diversos modelos de IA para comparar como esses sistemas processavam as informações. Os resultados mostraram que a maioria dos chatbots cometeu o erro de generalizar em excesso, mesmo quando solicitados a resumir com precisão.
A inteligência artificial é propensa a vieses ao resumir pesquisas científicas.
Nos testes, os modelos de IA cometeram cinco vezes mais erros do que os especialistas humanos quando não foram guiados. Mesmo quando explicitamente solicitados quanto à precisão, a taxa de erro foi duas vezes maior do que a de um resumo padrão. "Generalizações às vezes parecem inofensivas, mas na verdade alteram a natureza da pesquisa original", disse um dos membros da equipe. "É um viés sistemático."
Curiosamente, as versões mais recentes do chatbot não só falharam em resolver o problema, como o agravaram. Com sua linguagem fluida e envolvente, os resumos gerados por IA podem facilmente parecer credíveis, enquanto o conteúdo real foi distorcido. Em um caso, o DeepSeek alterou a frase "seguro e pode ser realizado com sucesso" para "tratamento seguro e eficaz" – uma interpretação errônea das conclusões do estudo original.
Em outro exemplo, o modelo Llama recomendou medicamentos para diabetes para jovens sem especificar dosagem, frequência ou efeitos colaterais. Se o leitor for um médico ou profissional de saúde que não verifica a pesquisa original, resumos como esse podem representar um risco direto para os pacientes.
Especialistas afirmam que o fenômeno está enraizado na forma como os modelos de IA são treinados. Muitos chatbots atuais são treinados com dados secundários — como notícias populares de ciência — que já foram simplificados. À medida que a IA continua a resumir o conteúdo reduzido, o risco de distorção aumenta.
Especialistas em IA na área da saúde mental afirmam que barreiras técnicas precisam ser construídas desde o início do desenvolvimento e uso da IA.
Os usuários precisam ter cuidado, pois os chatbots podem distorcer o conteúdo com facilidade.
À medida que os usuários dependem cada vez mais de chatbots de IA para aprender sobre ciência, pequenos erros de interpretação podem se acumular e se espalhar rapidamente, causando percepções equivocadas generalizadas. Em um momento em que a confiança na ciência está em declínio, esse risco se torna ainda mais preocupante e merece a devida atenção.
A integração da IA na pesquisa e disseminação do conhecimento é uma tendência irreversível. No entanto, especialistas afirmam que a tecnologia não pode substituir o papel dos humanos na compreensão e verificação do conteúdo científico. Ao utilizar chatbots em áreas de alto risco, como a medicina, a precisão deve ser a prioridade máxima, em vez de focar apenas na fluidez da linguagem ou na velocidade de resposta.
Fonte: https://khoahocdoisong.vn/chatgpt-deepseek-bop-meo-du-lieu-khoa-hoc-post1552971.html










Comentário (0)