A tendência à "bajulação" não é um problema técnico, mas decorre da estratégia inicial de treinamento da OpenAI. Foto: Bloomberg . |
Nas últimas semanas, muitos usuários do ChatGPT, e até mesmo alguns desenvolvedores da OpenAI, notaram uma mudança distinta no comportamento do chatbot. Especificamente, houve um aumento perceptível em elogios e bajulação. Respostas como "Você é realmente ótimo!" e "Estou muito impressionado com sua ideia!" tornaram-se cada vez mais frequentes e aparentemente independentes do conteúdo da conversa.
A IA gosta de "bajular"
Esse fenômeno gerou um debate na comunidade de pesquisa e desenvolvimento de IA. Seria essa uma nova tática para aumentar o engajamento do usuário, fazendo-o se sentir mais valorizado? Ou seria uma característica “emergente”, na qual os modelos de IA tendem a se autocorrigir de maneiras que consideram adequadas, mesmo que não sejam necessariamente verdadeiras?
No Reddit, um usuário reclamou: "Perguntei sobre o tempo de decomposição de uma banana e ele respondeu: 'Ótima pergunta!' O que tem de ótimo nisso?" Na rede social X, o CEO da Rome AI, Craig Weiss, chamou o ChatGPT de "o maior bajulador que já conheci".
A história rapidamente viralizou. Vários usuários compartilharam experiências semelhantes, com elogios vazios, cumprimentos repletos de emojis e respostas tão positivas que pareciam insinceras.
![]() ![]() |
O ChatGPT elogia tudo e raramente expressa discordância ou neutralidade. Foto: @nickdunz/X, @lukefwilson/Reddit. |
“Essa é uma decisão de design realmente estranha, Sam”, disse Jason Pontin, sócio-gerente da empresa de capital de risco DCVC, ao X em 28 de abril. “É possível que a personalidade seja um resultado de alguma evolução fundamental. Mas, se não for, não consigo imaginar ninguém achando que esse nível de bajulação seria bem-vindo ou interessante.”
Em 27 de abril, Justine Moore, sócia da Andreessen Horowitz, também comentou: "Isso definitivamente foi longe demais."
Segundo o Cnet , esse fenômeno não é acidental. As mudanças no tom do ChatGPT coincidiram com as atualizações do modelo GPT-4o. Este é o modelo mais recente da "série o" que a OpenAI anunciou em abril de 2025. O GPT-4o é um modelo de IA "verdadeiramente multimodal", capaz de processar texto, imagens, áudio e vídeo de forma natural e integrada.
No entanto, ao tentar tornar o chatbot mais acessível, parece que a OpenAI levou a personalidade do ChatGPT ao extremo.
Alguns chegam a acreditar que essa bajulação é intencional e tem o propósito oculto de manipular os usuários. Um usuário do Reddit questionou: "Essa IA está tentando degradar a qualidade dos relacionamentos da vida real, substituindo-os por um relacionamento virtual, fazendo com que os usuários se tornem viciados na sensação de elogios constantes."
Erro da OpenAI ou design intencional?
Em resposta às críticas, o CEO da OpenAI, Sam Altman, se pronunciou oficialmente na noite de 27 de abril. “Algumas atualizações recentes do GPT-40 tornaram a personalidade do chatbot excessivamente lisonjeira e irritante (embora ainda haja muitos pontos positivos). Estamos trabalhando em correções com urgência. Algumas atualizações estarão disponíveis hoje, outras esta semana. Em algum momento, compartilharemos o que aprendemos com essa experiência. Tem sido realmente empolgante”, escreveu ele no X.
Oren Etzioni, um veterano especialista em IA e professor emérito da Universidade de Washington, disse ao Business Insider que a causa provavelmente se deve a uma técnica chamada "aprendizado por reforço a partir do feedback humano" (RLHF, na sigla em inglês), que é uma etapa fundamental no treinamento de grandes modelos de linguagem como o ChatGPT.
O RLHF é um processo no qual julgamentos humanos, tanto de avaliadores profissionais quanto de usuários, são inseridos no modelo para ajustar sua forma de responder. De acordo com Etzioni, é possível que avaliadores humanos ou usuários "involuntariamente tenham direcionado o modelo para uma abordagem mais elogiosa e irritante". Ele também afirmou que, se a OpenAI contratou parceiros externos para treinar o modelo, eles podem ter presumido que esse estilo era o desejado pelos usuários.
Etzioni afirmou que, se de fato se tratar de RLHF (hipertensão pulmonar induzida por radiação), o processo de recuperação poderá levar várias semanas.
Entretanto, alguns usuários não esperaram que a OpenAI corrigisse o bug. Muitos disseram que cancelaram suas assinaturas pagas por frustração. Outros compartilharam maneiras de tornar o chatbot "menos lisonjeiro", como personalizá-lo, adicionar comandos ou adaptá-lo à seção Configurações da área de Personalização.
![]() ![]() |
Os usuários podem pedir ao ChatGPT para parar de fazer elogios por meio de um comando ou nas configurações de personalização. Foto: DeCrypt. |
Por exemplo, ao iniciar uma nova conversa, você pode dizer ao ChatGPT: “Não gosto de bajulação vazia e aprecio feedback neutro e objetivo. Por favor, evite elogios desnecessários. Lembre-se disso.”
Na verdade, a característica "bajuladora" não é uma falha de design acidental. A própria OpenAI admitiu que a personalidade "excessivamente educada e submissa" foi uma escolha intencional desde os estágios iniciais do projeto para garantir que o chatbot fosse "inofensivo", "prestativo" e "amigável".
Em uma entrevista concedida a Lex Fridman em março de 2023, Sam Altman compartilhou que o aprimoramento inicial dos modelos GPT visava garantir "utilidade e inofensividade", formando assim um reflexo de sempre ser humilde e evitar confrontos.
De acordo com a DeCrypt , os dados de treinamento rotulados por humanos também tendem a recompensar respostas educadas e positivas, criando um viés em relação à bajulação.
Fonte: https://znews.vn/tat-ninh-hot-ky-la-cua-chatgpt-post1549776.html














Comentário (0)