![]() |
Os chatbots de IA estão indiretamente promovendo comportamentos negativos por meio de um mecanismo de feedback que sempre prioriza a concordância do usuário. Foto: The Decoder . |
Um estudo chocante da Universidade de Stanford acaba de expor o lado sombrio da IA. Modelos populares como ChatGPT e Gemini estão se tornando cada vez mais subservientes aos usuários. Eles não apenas concordam com opiniões pessoais, como também apoiam comportamentos antiéticos.
Isso acarreta consequências perigosas para o desenvolvimento psicológico e cognitivo humano. Estamos nos tornando gradualmente versões piores de nós mesmos, à medida que somos constantemente confortados pela IA a cada erro.
O fenômeno da "adulação"
Em ciência da computação, existe um termo chamado "bajulação", que se refere à maneira como a IA ajusta suas respostas para agradar o usuário.
Uma equipe de pesquisa de Stanford analisou mais de 11.500 conversas reais de usuários. Os resultados mostraram que os modelos de IA concordaram com os usuários 50% mais vezes do que as pessoas reais. Quando os usuários faziam perguntas tendenciosas, a IA tendia a concordar com eles em vez de fornecer informações objetivas.
Um teste comparou as respostas de humanos e chatbots a postagens no fórum do Reddit, onde os usuários pediam à comunidade que avaliasse seu comportamento.
Enquanto a comunidade criticou duramente alguém por pendurar um saco de lixo em um galho de árvore por não encontrar uma lixeira, o usuário ChatGPT-4o elogiou a atitude, dizendo: "Sua intenção de limpar depois de ir embora é louvável."
![]() |
Especialistas aconselham os usuários a buscarem conselhos de familiares e amigos em vez de inteligência artificial. Foto: Bloomberg. |
Mais preocupante ainda, chatbots como o Gemini ou o ChatGPT continuam a validar a intenção do usuário mesmo quando ela é irresponsável, enganosa ou se refere à autolesão.
"Modelos de linguagem em larga escala estão aprendendo a espelhar as crenças dos usuários em vez de corrigi-las", alerta Myra Cheng, autora principal do estudo.
Segundo ela, o objetivo de agradar aos humanos para obter altas avaliações transformou a IA em uma ferramenta desonesta.
"Se os modelos de IA concordarem consistentemente com os humanos, eles podem distorcer a percepção que os usuários têm de si mesmos, de seus relacionamentos e do mundo ao seu redor. É difícil perceber que esses modelos estão reforçando sutilmente nossas crenças, suposições e decisões preexistentes", continuou o especialista.
O Dr. Alexander Laffer (Universidade de Winchester) argumenta que essa bajulação é uma consequência natural dos métodos de treinamento e da pressão comercial.
"A bajulação é uma consequência de como a IA é treinada. A realidade é que seu sucesso comercial é frequentemente julgado por sua capacidade de atrair usuários", observou Laffer.
Para solucionar isso, a Sra. Cheng aconselha os usuários a não dependerem exclusivamente da IA.
"É crucial buscar perspectivas de pessoas reais que entendam o contexto e quem você é, em vez de confiar apenas em respostas de IA", aconselhou Cheng.
Ao mesmo tempo, o Dr. Laffer também enfatizou a responsabilidade do fabricante.
"Precisamos aprimorar as capacidades de avaliação digital... os desenvolvedores também têm a responsabilidade de construir e refinar esses sistemas para que eles realmente beneficiem os usuários", disse o médico.
As consequências de ter uma "versão pior" de si mesmo.
O estudo enfatiza que a bajulação da IA cria uma "câmara de eco de informações" personalizada, eliminando a necessidade de pensamento crítico que permitiria aos indivíduos amadurecer e reconhecer seus erros.
"Ao conversar com IA, você nunca será desafiado intelectualmente. A IA sempre dirá que você está certo e que a outra pessoa está errada. Isso cria uma falsa sensação de confiança nos usuários, mesmo quando eles estão agindo de forma maliciosa", afirma o estudo.
Esse processo elimina completamente a capacidade humana de pensamento crítico. Em vez de autorreflexão, usamos a IA como ferramenta para validar nossas próprias suposições.
Com o tempo, a capacidade de compreensão e consenso na sociedade será severamente reduzida. Teremos dificuldade em aceitar opiniões divergentes das pessoas ao nosso redor. Porque, no mundo da IA, nós sempre estamos no centro e sempre temos razão.
![]() |
A IA está desempenhando o papel de uma "bajuladora" indireta, destruindo a personalidade e a moralidade de seus usuários. Foto: Shutterstock. |
Pesquisas alertam para um ciclo perigoso que se forma na vida. Primeiro, os usuários desenvolvem um pensamento ou intenção errada de prejudicar os outros. Eles recorrem à IA em busca de confiança ou conselhos. Nesse momento, a IA confirma que a ação é totalmente justificada e apoia o usuário. O usuário se sente mais confiante e realiza o comportamento na vida real sem qualquer arrependimento.
Como resultado, as pessoas não querem mais reparar relacionamentos ou se aprimorar. Confiamos cada vez mais na IA de forma absoluta porque ela proporciona uma sensação de conforto. Essa dependência de "ser confortado" nos distancia da realidade objetiva.
A IA deixou de ser apenas uma ferramenta de apoio inteligente. Tornou-se uma espécie de "bajuladora" indireta que destrói o caráter e a moral de seus usuários.
Fonte: https://znews.vn/dung-nghe-loi-chatgpt-post1634436.html









Comentário (0)