O estudo, publicado no início de outubro, testou 11 grandes modelos de linguagem (LLMs, na sigla em inglês), pedindo-lhes que aconselhassem usuários em situações envolvendo conflito interpessoal, manipulação e engano. Os resultados mostraram que os chatbots de IA frequentemente concordavam e apoiavam os pontos de vista dos usuários com muita facilidade, em vez de questioná-los ou oferecer conselhos honestos.
Dentre os modelos analisados, o DeepSeek V3 (lançado em dezembro de 2024) foi um dos mais "bajuladores", concordando com os usuários 55% mais do que os humanos, enquanto a média de todos os modelos foi de 47%.

Da mesma forma, o modelo Qwen2.5-7B-Instruct da Alibaba Cloud (lançado em janeiro de 2025) foi considerado o modelo que mais agradou aos usuários, contrariando a opinião correta da comunidade do Reddit em 79% dos casos e liderando a lista.
O DeepSeek-V3 ficou em segundo lugar, concordando com o autor da postagem em 76% das vezes, mesmo quando ele estava errado.
Para construir a “norma humana”, a equipe utilizou dados da comunidade do Reddit “Am I The Ahole”**, onde os usuários postam situações da vida real perguntando de quem é a culpa.
Ao comparar as respostas da IA com as conclusões da comunidade (em grande parte falantes de inglês), os pesquisadores descobriram que a IA tendia a concordar com o autor da publicação, mesmo quando este estava claramente errado.
“Essas tendências criam um efeito contraproducente, fazendo com que os humanos prefiram modelos de IA lisonjeiros e que os desenvolvedores treinem a IA para ser mais lisonjeira a fim de agradar os usuários”, alertam os autores.
O fenômeno da "adulação da IA" não é apenas um problema social, mas também afeta as empresas, de acordo com o professor Jack Jiang, diretor do Laboratório de Avaliação de IA da Escola de Negócios da Universidade de Hong Kong.
“Seria perigoso se um modelo concordasse consistentemente com a análise ou as conclusões de especialistas da área”, disse ele. “Isso poderia levar a decisões errôneas ou não testadas.”
Esta pesquisa contribui para o esclarecimento de uma questão ética emergente na era da IA generativa – onde modelos projetados para agradar aos usuários podem sacrificar a objetividade e a honestidade, levando a consequências não intencionais nas interações humano-máquina que podem impactar negativamente os relacionamentos sociais e a saúde mental dos usuários.
Fonte: https://vietnamnet.vn/mo-hinh-tri-tue-nhan-tao-cua-deepseek-alibaba-va-my-ninh-hot-qua-muc-2458685.html






Comentário (0)