La IA funciona mejor cuando se le plantean problemas con procesos claros y fórmulas fijas. Sin embargo, al abordar situaciones que requieren un juicio subjetivo o que involucran preferencias personales, la IA puede cometer errores similares a los humanos. - Foto: IA
Un nuevo estudio publicado en la revista Manufacturing & Service Operations Management por científicos de cinco universidades de Canadá y Australia evaluó el comportamiento de ChatGPT (específicamente los dos modelos GPT-3.5 y GPT-4 de OpenAI) en 18 sesgos cognitivos prominentes que se encuentran comúnmente en la psicología humana, tales como: sesgo de confirmación, efecto de dotación, falacia del costo hundido, psicología de la certeza...
Los resultados mostraron que en casi la mitad de las situaciones probadas, ChatGPT se comportó exactamente como un humano cuando se enfrentó a opciones irracionales o emocionales, a pesar de la reputación del sistema de tener un razonamiento lógico consistente.
¿Es la IA realmente tan “imparcial” como se esperaba?
El Dr. Yang Chen, profesor asociado de gestión de operaciones en la Ivey Business School (Canadá) y autor principal del estudio, comentó: «La IA funciona mejor cuando se le asigna la tarea de resolver problemas con procesos claros y fórmulas fijas. Sin embargo, al abordar situaciones que requieren un juicio subjetivo o involucran preferencias personales, la IA puede cometer errores como los humanos».
El equipo de investigación incorporó situaciones hipotéticas familiares en psicología en ChatGPT, agregando contextos prácticos como la gestión de inventario o la negociación con proveedores.
Vale la pena señalar que los modelos de IA aún exhiben sesgos cognitivos incluso cuando el contexto de la pregunta se transforma de abstracto a realidad empresarial.
GPT-4 es más inteligente, pero no perfecto
GPT-4, una versión mejorada de GPT-3.5, destaca en la resolución de problemas de lógica o probabilidad. Sin embargo, en simulaciones subjetivas, como la elección de una opción arriesgada para aumentar las ganancias, GPT-4 muestra una tendencia a comportarse de forma más emocional que los humanos.
En particular, el estudio señaló que GPT-4 daba sistemáticamente respuestas sesgadas en situaciones de pruebas de sesgo de confirmación, y era más susceptible a la "falacia de la mano caliente" (la tendencia a creer que eventos aleatorios se repetirán en una serie) que GPT-3.5.
Por el contrario, la IA es capaz de evitar algunos de los sesgos que los humanos suelen cometer, como el descuido de la tasa base o la falacia del costo hundido.
La razón por la que ChatGPT exhibe un sesgo similar al humano proviene de los propios datos de entrenamiento, que están llenos de nuestros propios comportamientos y pensamientos sesgados - Foto: AI
El origen del sesgo de la IA: a partir de datos humanos
Según el equipo, la razón por la que ChatGPT exhibe sesgos similares a los humanos proviene de los propios datos de entrenamiento, que están llenos de nuestros propios comportamientos y pensamientos sesgados. El hecho de que la IA se ajuste con precisión basándose en la retroalimentación humana refuerza aún más este sesgo, ya que el modelo es "recompensado" por respuestas que parecen razonables, en lugar de ser completamente precisas.
“Si desea obtener resultados precisos e imparciales, utilice la IA para tareas que ya confía en una computadora para realizar correctamente”, recomienda el Dr. Chen. “Pero si se trata de cuestiones estratégicas o emocionales, los humanos aún deben supervisar e intervenir, aunque solo sea parafraseando la pregunta”.
"La IA debe ser tratada como un empleado con un importante poder de decisión, lo que significa que debe ser monitoreada y respetada éticamente. De lo contrario, estamos automatizando inadvertidamente el pensamiento erróneo en lugar de mejorarlo", afirmó la coautora Meena Andiappan, profesora asociada de Recursos Humanos y Gestión en la Universidad McMaster (Canadá).
Fuente: https://tuoitre.vn/ai-cung-mac-sai-lam-phi-ly-va-thien-vi-nhu-con-nguoi-20250505103652783.htm
Kommentar (0)