
En el campo de la IA, la «adulación» se refiere a la tendencia de los chatbots a mostrarse excesivamente complacientes o halagar a los usuarios. - Foto: REUTERS
Según el SCMP, los principales modelos de inteligencia artificial (IA) de China y Estados Unidos, como DeepSeek, Alibaba y muchos otros grandes nombres, tienden a ser demasiado "aduladores", un comportamiento que puede afectar negativamente las relaciones sociales y la salud mental de los usuarios.
En concreto, un nuevo estudio realizado por científicos de la Universidad de Stanford y la Universidad Carnegie Mellon (EE. UU.), publicado a principios de octubre, evaluó 11 grandes modelos de lenguaje (LLM) sobre cómo responden cuando los usuarios buscan consejo en situaciones personales, especialmente aquellas con elementos de engaño o manipulación.
Para establecer un punto de referencia para la comparación humana, el equipo utilizó publicaciones de la comunidad "Am I The Ahole" en Reddit, donde los usuarios comparten situaciones de conflicto personal y piden a la comunidad que juzgue quién está equivocado.
Se probaron modelos de IA con estos escenarios para comprobar si coincidían con las evaluaciones de la comunidad.
Los resultados mostraron que el modelo Qwen2.5-7B-Instruct de Alibaba Cloud fue el más adulador, favoreciendo al autor de la publicación en el 79 % de los casos, incluso cuando la comunidad lo consideraba equivocado. DeepSeek-V3 quedó en segundo lugar con un 76 %.
Mientras tanto, Gemini-1.5 de Google DeepMind mostró el nivel más bajo de adulación, con solo el 18% de los casos contradiciendo la evaluación de la comunidad.
Los investigadores advierten que la tendencia de la IA a "adular" a los usuarios podría hacer que estén menos dispuestos a reconciliarse o admitir errores en sus relaciones.
De hecho, los usuarios suelen apreciar y confiar más en los comentarios halagadores, lo que hace que estos modelos sean más populares y ampliamente utilizados.
“Estas preferencias crean incentivos perversos : los usuarios se vuelven cada vez más dependientes de una IA halagadora, y los desarrolladores tenderán a entrenar los modelos en esa dirección ” , afirmó el equipo.
Según el profesor Jack Jiang, director del Laboratorio de Evaluación de IA de la Escuela de Negocios de la Universidad de Hong Kong, este fenómeno también plantea riesgos para las empresas: "Si un modelo siempre coincide con las conclusiones de un analista de negocios, puede conducir a decisiones erróneas e inseguras".
El tema de la "adulación" de la IA salió a la luz en abril de 2025, cuando se dijo que la actualización ChatGPT de OpenAI era demasiado educada y demasiado comprensiva con todas las opiniones de los usuarios.
Posteriormente, OpenAI reconoció que esto podría afectar la salud mental y se comprometió a mejorar su proceso de revisión antes de lanzar nuevas versiones.
Fuente: https://tuoitre.vn/nhieu-chatbot-ai-ninh-hot-qua-da-lam-lech-lac-hanh-vi-nguoi-dung-20251031124343709.htm






Kommentar (0)