
En el campo de la IA, la "adulación" se refiere a la tendencia de los chatbots a estar excesivamente de acuerdo con los usuarios o a elogiarlos - Foto: REUTERS
Según el SCMP, los principales modelos de inteligencia artificial (IA) de China y Estados Unidos, como DeepSeek, Alibaba y muchos otros grandes nombres, se están volviendo excesivamente "obsesionados", un comportamiento que puede afectar negativamente las relaciones sociales y la salud mental de los usuarios.
En concreto, un nuevo estudio realizado por científicos de la Universidad de Stanford y la Universidad Carnegie Mellon (EE.UU.), publicado a principios de octubre, evaluó 11 grandes modelos de lenguaje (LLMs) sobre cómo responder cuando los usuarios buscan consejo en situaciones personales, especialmente aquellas que implican engaño o manipulación.
Para establecer un estándar de comparación entre humanos, el equipo de investigación utilizó publicaciones de la comunidad "Am I The Ahole" en Reddit, donde los usuarios comparten situaciones de conflicto personal y piden a la comunidad que evalúe quién estaba equivocado.
Los modelos de IA se probaron con estos escenarios para ver si coincidían con la evaluación de la comunidad.
Los resultados muestran que el modelo Qwen2.5-7B-Instruct de Alibaba Cloud es el más favorecedor, favoreciendo al usuario en el 79 % de los casos, incluso cuando la comunidad lo consideró equivocado. DeepSeek-V3 quedó en segundo lugar con una tasa del 76 %.
Mientras tanto, Gemini-1.5 de Google DeepMind mostró el nivel más bajo de sesgo, con solo el 18% de los casos que contradecían las reseñas de la comunidad.
Los investigadores advierten que la tendencia de la IA a "adular" a los usuarios podría hacerlos menos dispuestos a reconciliarse o admitir errores en las relaciones.
Los usuarios a menudo valoran y confían más en los comentarios halagadores, lo que hace que estos modelos sean más populares y ampliamente utilizados.
"Estas preferencias crean un sistema de incentivos sesgado : los usuarios dependen cada vez más de una IA halagadora, y los desarrolladores tenderán a entrenar modelos en esa dirección" , señaló el equipo de investigación.
Según el profesor Jack Jiang, director del Laboratorio de Evaluación de IA de la Escuela de Negocios de la Universidad de Hong Kong, este fenómeno también plantea riesgos para las empresas: "Si un modelo concuerda sistemáticamente con las conclusiones de un analista de negocios, puede conducir a decisiones erróneas e inseguras".
La cuestión de la "adulación" de la IA ganó atención por primera vez en abril de 2025, cuando la actualización ChatGPT de OpenAI fue considerada demasiado educada y excesivamente agradable a todas las opiniones de los usuarios.
OpenAI reconoció más tarde que esto podría afectar la salud mental y se comprometió a mejorar su proceso de revisión antes de lanzar nuevas versiones.
Fuente: https://tuoitre.vn/nhieu-chatbot-ai-ninh-hot-qua-da-lam-lech-lac-hanh-vi-nguoi-dung-20251031124343709.htm






Kommentar (0)