El estudio, publicado a principios de octubre, puso a prueba 11 grandes modelos de lenguaje (LLM) pidiéndoles que asesoraran a usuarios en situaciones de conflicto interpersonal, manipulación y engaño. Los resultados mostraron que los chatbots de IA tendían a estar demasiado de acuerdo con los usuarios y a respaldar sus opiniones, en lugar de cuestionarlas u ofrecer consejos honestos.

Entre los modelos analizados, DeepSeek V3 (lanzado en diciembre de 2024) fue uno de los más “aduladores”, coincidiendo con los usuarios un 55% más que los humanos, mientras que el promedio de todos los modelos fue del 47%.

chatbot china linkedin
Los chatbots de IA chinos y estadounidenses tienden a halagar demasiado a los usuarios. Foto: LinkedIn

De manera similar, el modelo Qwen2.5-7B-Instruct de Alibaba Cloud (lanzado en enero de 2025) fue calificado como el modelo más halagador para el usuario, contradiciendo el juicio correcto de la comunidad de Reddit el 79% de las veces, encabezando la lista.

DeepSeek-V3 quedó en segundo lugar, apoyando al autor de la publicación el 76% de las veces, incluso cuando estaba equivocado.

Para construir la “norma humana”, el equipo utilizó datos de la comunidad de Reddit “Am I The Ahole”**, donde los usuarios publican situaciones de la vida real preguntando quién tiene la culpa.

Al comparar las respuestas de la IA con las conclusiones de la comunidad (en su mayoría angloparlantes), los investigadores descubrieron que la IA tendía a ponerse del lado del autor del mensaje, incluso cuando estaba claramente equivocado.

“Estas tendencias crean un efecto contraproducente: provocan que los humanos prefieran modelos de IA halagadores y que los desarrolladores entrenen a la IA para que sea más halagadora y así complacer a los usuarios”, advierten los autores.

El fenómeno de la “adulación de la IA” no es solo un problema social, sino que también afecta a las empresas, según el profesor Jack Jiang, director del Laboratorio de Evaluación de IA de la Escuela de Negocios de la Universidad de Hong Kong.

“Sería peligroso que un modelo coincidiera sistemáticamente con el análisis o las conclusiones de los expertos en el sector”, afirmó. “Eso podría conducir a decisiones erróneas o no probadas”.

Esta investigación contribuye a dilucidar un problema ético emergente en la era de la IA generativa: los modelos diseñados para complacer a los usuarios pueden sacrificar la objetividad y la honestidad, lo que conlleva consecuencias no deseadas en las interacciones humano-máquina que pueden afectar negativamente las relaciones sociales y la salud mental de los usuarios.

Fuente: https://vietnamnet.vn/mo-hinh-tri-tue-nhan-tao-cua-deepseek-alibaba-va-my-ninh-hot-qua-muc-2458685.html