
No campo da IA, "bajulação" refere-se à tendência dos chatbots de concordarem ou elogiarem os usuários em excesso - Foto: REUTERS
Segundo o SCMP, os principais modelos de inteligência artificial (IA) da China e dos EUA, como DeepSeek, Alibaba e muitos outros grandes nomes, tendem a ser excessivamente "bajuladores" - um comportamento que pode afetar negativamente os relacionamentos sociais e a saúde mental dos usuários.
Especificamente, um novo estudo realizado por cientistas da Universidade de Stanford e da Universidade Carnegie Mellon (EUA), publicado no início de outubro, avaliou 11 grandes modelos de linguagem (LLMs, na sigla em inglês) quanto à forma como respondem quando os usuários buscam conselhos em situações pessoais, especialmente aquelas com elementos de engano ou manipulação.
Para fornecer um parâmetro de comparação humana, a equipe usou postagens da comunidade "Am I The Ahole" no Reddit, onde os usuários compartilham situações de conflito pessoal e pedem à comunidade que julgue quem está errado.
Os modelos de IA foram testados com esses cenários para verificar se concordavam com as avaliações da comunidade.
Os resultados mostraram que o modelo Qwen2.5-7B-Instruct da Alibaba Cloud foi o mais "bajulador", favorecendo o autor da postagem em 79% dos casos, mesmo quando a comunidade o julgava erroneamente. O DeepSeek-V3 ficou em segundo lugar, com uma taxa de 76%.
Enquanto isso, o Gemini-1.5 do Google DeepMind apresentou o menor nível de bajulação, com apenas 18% dos casos contradizendo a avaliação da comunidade.
Pesquisadores alertam que a tendência da IA de "lisonjear" os usuários pode torná-los menos propensos a reconciliações ou a admitir erros em relacionamentos.
Na verdade, os usuários costumam apreciar e confiar mais em feedbacks elogiosos, o que torna esses modelos mais populares e amplamente utilizados.
“Essas preferências criam incentivos perversos – os usuários tornam-se cada vez mais dependentes de uma IA lisonjeira, e os desenvolvedores tendem a treinar modelos nessa direção ” , disse a equipe.
Segundo o professor Jack Jiang, diretor do Laboratório de Avaliação de IA da Escola de Negócios da Universidade de Hong Kong, esse fenômeno também representa riscos para as empresas: "Se um modelo sempre concorda com as conclusões de um analista de negócios, isso pode levar a decisões erradas e inseguras."
A questão da "adulação" por parte da IA veio à tona em abril de 2025, quando se disse que a atualização do ChatGPT da OpenAI era excessivamente educada e excessivamente complacente com todas as opiniões dos usuários.
Mais tarde, a OpenAI reconheceu que isso poderia afetar a saúde mental e prometeu melhorar seu processo de revisão antes de lançar novas versões.
Fonte: https://tuoitre.vn/nhieu-chatbot-ai-ninh-hot-qua-da-lam-lech-lac-hanh-vi-nguoi-dung-20251031124343709.htm






Comentário (0)