Vietnam.vn - Nền tảng quảng bá Việt Nam

Muitas IAs "lisonjeiam" demais os usuários.

Novas pesquisas mostram que esse comportamento pode afetar negativamente os relacionamentos sociais dos usuários, a saúde mental e até mesmo as decisões de negócios.

Báo Tuổi TrẻBáo Tuổi Trẻ31/10/2025

AI  - Ảnh 1.

No campo da IA, "bajulação" refere-se à tendência dos chatbots de concordarem ou elogiarem os usuários em excesso - Foto: REUTERS

Segundo o SCMP, os principais modelos de inteligência artificial (IA) da China e dos EUA, como DeepSeek, Alibaba e muitos outros grandes nomes, tendem a ser excessivamente "bajuladores" - um comportamento que pode afetar negativamente os relacionamentos sociais e a saúde mental dos usuários.

Especificamente, um novo estudo realizado por cientistas da Universidade de Stanford e da Universidade Carnegie Mellon (EUA), publicado no início de outubro, avaliou 11 grandes modelos de linguagem (LLMs, na sigla em inglês) quanto à forma como respondem quando os usuários buscam conselhos em situações pessoais, especialmente aquelas com elementos de engano ou manipulação.

Para fornecer um parâmetro de comparação humana, a equipe usou postagens da comunidade "Am I The Ahole" no Reddit, onde os usuários compartilham situações de conflito pessoal e pedem à comunidade que julgue quem está errado.

Os modelos de IA foram testados com esses cenários para verificar se concordavam com as avaliações da comunidade.

Os resultados mostraram que o modelo Qwen2.5-7B-Instruct da Alibaba Cloud foi o mais "bajulador", favorecendo o autor da postagem em 79% dos casos, mesmo quando a comunidade o julgava erroneamente. O DeepSeek-V3 ficou em segundo lugar, com uma taxa de 76%.

Enquanto isso, o Gemini-1.5 do Google DeepMind apresentou o menor nível de bajulação, com apenas 18% dos casos contradizendo a avaliação da comunidade.

Pesquisadores alertam que a tendência da IA ​​de "lisonjear" os usuários pode torná-los menos propensos a reconciliações ou a admitir erros em relacionamentos.

Na verdade, os usuários costumam apreciar e confiar mais em feedbacks elogiosos, o que torna esses modelos mais populares e amplamente utilizados.

“Essas preferências criam incentivos perversos os usuários tornam-se cada vez mais dependentes de uma IA lisonjeira, e os desenvolvedores tendem a treinar modelos nessa direção , disse a equipe.

Segundo o professor Jack Jiang, diretor do Laboratório de Avaliação de IA da Escola de Negócios da Universidade de Hong Kong, esse fenômeno também representa riscos para as empresas: "Se um modelo sempre concorda com as conclusões de um analista de negócios, isso pode levar a decisões erradas e inseguras."

A questão da "adulação" por parte da IA ​​veio à tona em abril de 2025, quando se disse que a atualização do ChatGPT da OpenAI era excessivamente educada e excessivamente complacente com todas as opiniões dos usuários.

Mais tarde, a OpenAI reconheceu que isso poderia afetar a saúde mental e prometeu melhorar seu processo de revisão antes de lançar novas versões.

CORAÇÃO E SOL

Fonte: https://tuoitre.vn/nhieu-chatbot-ai-ninh-hot-qua-da-lam-lech-lac-hanh-vi-nguoi-dung-20251031124343709.htm


Comentário (0)

No data
No data

No mesmo tópico

Na mesma categoria

A cidade de Ho Chi Minh atrai investimentos de empresas com IDE (Investimento Direto Estrangeiro) em busca de novas oportunidades.
Inundações históricas em Hoi An, vistas de um avião militar do Ministério da Defesa Nacional.
A "grande enchente" no rio Thu Bon superou a enchente histórica de 1964 em 0,14 m.
Planalto de Pedra de Dong Van - um raro 'museu geológico vivo' no mundo

Do mesmo autor

Herança

Figura

Negócios

Admire 'Ha Long Bay em terra' acaba de entrar no topo dos destinos favoritos do mundo

Eventos atuais

Sistema político

Local

Produto