Un equipo de investigación en inteligencia artificial (IA) de la Universidad Politécnica de Valencia, España, ha descubierto que, a medida que los grandes modelos de lenguaje se vuelven más grandes y sofisticados, tienden a ser menos propensos a admitir ante los usuarios que desconocen la respuesta.
| Cuanto más inteligente sea la IA, menos probable será que admita ante los usuarios que desconoce la respuesta. (Ilustración de IA) |
En una investigación publicada en la revista Nature , el equipo probó las últimas versiones de tres de los chatbots de IA más populares en cuanto a capacidad de respuesta, precisión y la capacidad de los usuarios para detectar respuestas incorrectas.
Para comprobar la precisión de los tres modelos de aprendizaje automático (MLA) más populares, BLOOM, LLaMA y GPT, el equipo formuló miles de preguntas y comparó las respuestas obtenidas con versiones anteriores de las mismas preguntas. También variaron los temas, incluyendo matemáticas, ciencias , problemas de razonamiento y geografía, así como la capacidad de generar texto o realizar acciones como ordenar listas.
El estudio reveló algunas tendencias notables. La precisión general de los chatbots mejoró con cada nueva versión, pero siguió disminuyendo ante preguntas más difíciles. Sorprendentemente, a medida que los sistemas de gestión de aprendizaje (SGA) se volvieron más grandes y sofisticados, tendían a ser menos transparentes sobre su capacidad para responder correctamente.
En versiones anteriores, la mayoría de los buscadores de aprendizaje informaban abiertamente a los usuarios cuando no encontraban una respuesta o necesitaban más información. En cambio, las versiones más recientes tienden a adivinar más, lo que resulta en un mayor número de respuestas, tanto correctas como incorrectas. Lo más preocupante es que el estudio reveló que todos los buscadores de aprendizaje seguían dando respuestas incorrectas ocasionalmente, incluso a preguntas fáciles, lo que sugiere que su fiabilidad sigue siendo un problema que requiere mejoras.
Estos hallazgos ponen de relieve una paradoja en la evolución de la IA: si bien los modelos se están volviendo más potentes, también pueden volverse menos transparentes en cuanto a sus limitaciones.
Esto plantea nuevos retos en el uso y la confianza en los sistemas de IA, exigiendo que los usuarios sean más cautelosos y que los desarrolladores se centren en mejorar no solo la precisión, sino también la “autoconciencia” de los modelos.
Fuente: https://baoquocte.vn/cang-thong-minh-tri-tue-nhan-tao-cang-co-xu-huong-giau-dot-287987.html






Kommentar (0)