La IA funciona mejor cuando se le dan problemas para resolver que tienen procesos claros y fórmulas fijas. Pero cuando se trata de situaciones que requieren un juicio subjetivo o involucran preferencias personales, la IA puede cometer errores como los humanos - Foto: AI
Un nuevo estudio publicado en la revista Manufacturing & Service Operations Management por científicos de cinco universidades de Canadá y Australia evaluó el comportamiento de ChatGPT (específicamente los dos modelos GPT-3.5 y GPT-4 de OpenAI) en 18 sesgos cognitivos prominentes que se encuentran comúnmente en la psicología humana, tales como: sesgo de confirmación, efecto de dotación, falacia del costo hundido, psicología de la certeza...
Los resultados mostraron que en casi la mitad de las situaciones probadas, ChatGPT se comportó exactamente como un humano cuando se enfrentó a opciones irracionales o emocionales, a pesar de la reputación del sistema de tener un razonamiento lógico consistente.
¿Es la IA realmente tan “imparcial” como se esperaba?
El Dr. Yang Chen, profesor asociado de gestión de operaciones en la Ivey Business School (Canadá) y autor principal del estudio, comentó: «La IA funciona mejor cuando se le asigna la tarea de resolver problemas con procesos claros y fórmulas fijas. Sin embargo, al abordar situaciones que requieren un juicio subjetivo o involucran preferencias personales, la IA puede cometer errores como los humanos».
El equipo de investigación incorporó situaciones hipotéticas familiares en psicología en ChatGPT, agregando contextos prácticos como la gestión de inventario o la negociación con proveedores.
Vale la pena señalar que los modelos de IA aún exhiben sesgos cognitivos incluso cuando el contexto de la pregunta se transforma de abstracto a realidad empresarial.
GPT-4 es más inteligente, pero no perfecto
GPT-4 es una versión mejorada de GPT-3.5 que se destaca en la resolución de problemas de lógica o probabilidad. Sin embargo, en simulaciones subjetivas, como la elección de una opción arriesgada para aumentar las ganancias, GPT-4 mostró una tendencia más emocional que los humanos.
En particular, el estudio señaló que GPT-4 daba sistemáticamente respuestas sesgadas en situaciones de pruebas de sesgo de confirmación, y era más susceptible a la "falacia de la mano caliente" (la tendencia a creer que eventos aleatorios se repetirán en una serie) que GPT-3.5.
Por el contrario, la IA es capaz de evitar algunos de los sesgos que los humanos suelen cometer, como el descuido de la tasa base o la falacia del costo hundido.
La razón por la que ChatGPT exhibe un sesgo similar al humano proviene de los propios datos de entrenamiento, que están llenos de nuestros propios comportamientos y pensamientos sesgados - Foto: AI
El origen del sesgo de la IA: a partir de datos humanos
Según el equipo de investigación, la razón por la que ChatGPT exhibe sesgos similares a los humanos proviene de los propios datos de entrenamiento, que están llenos de nuestros propios comportamientos y pensamientos sesgados. El hecho de que la IA se ajuste en función de la retroalimentación humana refuerza aún más esta tendencia, ya que el modelo es “recompensado” por respuestas que parecen razonables, en lugar de ser completamente precisas.
“Para obtener resultados precisos e imparciales, utilice la IA para tareas que ya confía en que una computadora pueda realizar correctamente”, recomienda el Dr. Chen. “Pero si hay que lidiar con cuestiones estratégicas o emocionales, los humanos aún necesitan monitorear e intervenir, incluso si es simplemente reformulando la pregunta”.
"La IA debe ser tratada como un empleado con un importante poder de decisión, lo que significa que debe ser monitoreada y respetada éticamente. De lo contrario, estamos automatizando inadvertidamente el pensamiento erróneo en lugar de mejorarlo", afirmó la coautora Meena Andiappan, profesora asociada de Recursos Humanos y Gestión en la Universidad McMaster (Canadá).
Fuente: https://tuoitre.vn/ai-cung-mac-sai-lam-phi-ly-va-thien-vi-nhu-con-nguoi-20250505103652783.htm
Kommentar (0)