Los programas de inteligencia artificial han logrado muchos éxitos en los últimos años - Foto: REUTERS
No podemos observar todo el proceso desde los datos de entrada hasta los resultados de salida de los modelos de lenguaje grandes (LLM).
Para facilitar su comprensión, los científicos han utilizado términos comunes como "razonamiento" para describir el funcionamiento de estos programas. También afirman que los programas pueden "pensar", "razonar" y "entender" como los humanos.
Exagerar las capacidades de la IA
En los últimos dos años, muchos ejecutivos de IA han utilizado la hipérbole para exagerar logros técnicos simples, según ZDNET del 6 de septiembre.
En septiembre de 2024, OpenAI anunció que el modelo de razonamiento o1 "utiliza una cadena de inferencia al resolver problemas, similar a la forma en que los humanos piensan durante mucho tiempo cuando se enfrentan a preguntas difíciles".
Sin embargo, los científicos de IA se oponen. Creen que la IA no tiene inteligencia humana.
Un estudio sobre la base de datos arXiv realizado por un grupo de autores de la Universidad Estatal de Arizona (EE.UU.) ha verificado la capacidad de razonamiento de la IA con un experimento sencillo.
Los resultados mostraron que "la inferencia por cadena de pensamiento es una ilusión frágil", no un mecanismo lógico real, sino simplemente una forma sofisticada de comparación de patrones.
El término “cadena de pensamiento” (CoT) permite a la IA no solo llegar a una respuesta final, sino también presentar cada paso del razonamiento lógico, como en los modelos GPT-o1 o DeepSeek V1.
Ilustración del modelo de lenguaje GPT-2 de OpenAI - Foto: ECHOCRAFTAI
Descubra lo que realmente hace la IA
Los análisis a gran escala muestran que el LLM tiende a depender de la semántica y de pistas superficiales en lugar de procesos de razonamiento lógico, dicen los investigadores.
"LLM construye cadenas lógicas superficiales basadas en asociaciones de entrada aprendidas, y a menudo falla en tareas que se desvían de los métodos de razonamiento convencionales o patrones familiares", explica el equipo.
Para probar la hipótesis de que LLM solo estaba haciendo coincidir patrones y no haciendo inferencias, el equipo entrenó GPT-2, un modelo de código abierto lanzado por OpenAI en 2019.
Inicialmente, el modelo se entrenó con tareas muy sencillas con las 26 letras del inglés, como invertir algunas letras, por ejemplo, convertir "APPLE" en "EAPPL". Posteriormente, el equipo modificó la tarea y le encargó a GPT-2 que la gestionara.
Los resultados muestran que para las tareas no incluidas en los datos de entrenamiento, GPT-2 no puede resolverlas con precisión utilizando CoT.
En cambio, el modelo intenta aplicar las tareas aprendidas más similares. Por lo tanto, sus «inferencias» pueden parecer razonables, pero los resultados suelen ser erróneos.
El grupo concluyó que no hay que confiar demasiado ni ciegamente en las respuestas del LLM, ya que pueden producir "tonterías que suenan muy convincentes".
También destacaron la necesidad de comprender la verdadera naturaleza de la IA, evitar la exageración y dejar de promover que la IA tiene la capacidad de razonar como los humanos.
Fuente: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm
Kommentar (0)