
Para los principales directores ejecutivos tecnológicos actuales, como Dario Amodei de Anthropic, Demis Hassabis de Google y Sam Altman de OpenAI, no basta con decir que su IA es la mejor. Los tres han declarado recientemente que la IA será tan buena que transformará radicalmente la sociedad.
Sin embargo, un grupo cada vez mayor de investigadores, entre quienes construyen, estudian y utilizan la IA moderna, se muestran escépticos ante tales afirmaciones.
El razonamiento de la IA no es omnipotente
Tan solo tres años después de su introducción, la inteligencia artificial ha comenzado a estar presente en muchas actividades cotidianas, como estudiar y trabajar. Muchos temen que pronto pueda reemplazar a los humanos.
Sin embargo, los nuevos modelos de IA actuales no son tan inteligentes como creemos. Un descubrimiento de Apple, una de las empresas tecnológicas más grandes del mundo , lo demuestra.
En concreto, en un estudio recientemente publicado titulado “Pensamiento ilusorio”, el equipo de investigación de Apple afirma que los modelos de inferencia como Claude, DeepSeek-R1 y o3-mini no están realmente “impulsados por el cerebro” como sugieren sus nombres.
El documento de Apple se basa en trabajos previos de muchos ingenieros similares, así como en investigaciones destacadas tanto del ámbito académico como de otras importantes empresas tecnológicas, incluida Salesforce.
Estos experimentos muestran que las IA de inferencia (que han sido aclamadas como el siguiente paso hacia agentes de IA autónomos y, eventualmente, hacia la superinteligencia) son en algunos casos peores a la hora de resolver problemas que los chatbots de IA básicos que las precedieron.
![]() |
La nueva investigación de Apple sobre modelos de inferencia a gran escala demuestra que los modelos de IA no requieren tanto esfuerzo mental como parece. Foto: OpenAI. |
También en el estudio, ya sea utilizando chatbots de IA o modelos de inferencia, todos los sistemas fallaron completamente en tareas más complejas.
Los investigadores sugieren sustituir la palabra inferencia por «imitación». El equipo argumenta que estos modelos son simplemente eficientes para memorizar y repetir patrones. Pero cuando se cambia la pregunta o aumenta la complejidad, prácticamente colapsan.
En pocas palabras, los chatbots funcionan bien cuando pueden reconocer y combinar patrones, pero una vez que la tarea se vuelve demasiado compleja, dejan de ser capaces de gestionarla. «Los modelos de razonamiento a gran escala (LRM) de última generación sufren un colapso total de su precisión cuando la complejidad supera cierto umbral», señala el estudio.
Esto contradice la expectativa del desarrollador de que la complejidad mejoraría con más recursos. «El esfuerzo de inferencia de la IA aumenta con la complejidad, pero solo hasta cierto punto, y luego disminuye, incluso si todavía hay suficiente presupuesto de tokens (potencia computacional) para gestionarla», añadió el estudio.
El verdadero futuro de la IA
Gary Marcus, psicólogo y autor estadounidense, afirmó que los hallazgos de Apple eran impresionantes, pero no eran realmente nuevos y solo reforzaban investigaciones previas. El profesor emérito de psicología y neurociencia de la Universidad de Nueva York citó su estudio de 1998 como ejemplo.
En él, sostiene que las redes neuronales, precursoras de los grandes modelos lingüísticos, pueden generalizarse bien dentro de la distribución de datos con los que fueron entrenadas, pero a menudo se desmoronan cuando se enfrentan a datos fuera de la distribución.
Sin embargo, el Sr. Marcus también cree que tanto el modelo LLM como el LRM tienen sus propias aplicaciones y son útiles en algunos casos.
En el mundo de la tecnología, la superinteligencia se considera la siguiente etapa del desarrollo de la IA, donde los sistemas no solo logran la capacidad de pensar como los humanos (AGI) sino que también se destacan en velocidad, precisión y nivel de conciencia.
A pesar de las importantes limitaciones, incluso los críticos de la IA se apresuran a añadir que el viaje hacia la superinteligencia informática todavía es totalmente posible.
![]() |
Más que una simple alternativa a Google o una ayuda con las tareas escolares, Sam Altman, CEO de OpenAI, afirmó una vez que la IA cambiaría el progreso de la humanidad. Foto: AA Photo. |
Exponer las limitaciones actuales podría señalar el camino para que las empresas de IA las superen, afirma Jorge Ortiz, profesor asociado de ingeniería en el laboratorio de Rutgers.
Ortiz citó ejemplos de nuevos métodos de entrenamiento, como brindar retroalimentación incremental sobre el desempeño de un modelo y agregar más recursos cuando se enfrentan a problemas difíciles, que pueden ayudar a la IA a abordar problemas más grandes y hacer un mejor uso del software subyacente.
Mientras tanto, Josh Wolfe, cofundador de la firma de capital de riesgo Lux Capital, desde una perspectiva empresarial, independientemente de que los sistemas actuales puedan razonar o no, seguirán creando valor para los usuarios.
Ethan Mollick, profesor de la Universidad de Pensilvania, también expresó su creencia de que los modelos de IA pronto superarán estas limitaciones en el futuro cercano.
“Los modelos son cada vez mejores y constantemente se desarrollan nuevos enfoques para la IA, por lo que no me sorprendería que estas limitaciones se superen en un futuro cercano”, afirmó Mollick.
Fuente: https://znews.vn/vi-sao-ai-chua-the-vuot-qua-tri-tue-con-nguoi-post1561163.html












Kommentar (0)