Un equipo de investigación de inteligencia artificial (IA) de la Universidad Politécnica de Valencia, España, ha descubierto que, a medida que los modelos lingüísticos grandes se vuelven más grandes y sofisticados, tienden a ser menos propensos a admitir ante los usuarios que no saben la respuesta.
Cuanto más inteligente sea la IA, menos probable será que admita ante los usuarios que no sabe la respuesta. (Ilustración de IA) |
En el estudio, publicado en la revista Nature , el equipo probó las últimas versiones de tres de los chatbots de IA más populares en cuanto a capacidad de respuesta, precisión y la capacidad de los usuarios para detectar respuestas incorrectas.
Para comprobar la precisión de los tres LLM más populares, BLOOM, LLaMA y GPT, el equipo formuló miles de preguntas y comparó las respuestas con versiones anteriores de las mismas. También variaron los temas, incluyendo matemáticas, ciencias , juegos de palabras y geografía, así como la capacidad de generar texto o realizar acciones como ordenar listas.
El estudio reveló algunas tendencias notables. La precisión general de los chatbots mejoró con cada nueva versión, pero siguió disminuyendo al enfrentarse a preguntas más difíciles. Sorprendentemente, a medida que los LLM se hicieron más grandes y sofisticados, tendieron a ser menos transparentes sobre su capacidad para responder correctamente.
En versiones anteriores, la mayoría de los LLM indicaban explícitamente a los usuarios cuando no encontraban una respuesta o necesitaban más información. En cambio, las versiones más nuevas tienden a adivinar más, lo que resulta en un mayor número de respuestas, tanto correctas como incorrectas. Aún más preocupante es que el estudio reveló que todos los LLM aún daban ocasionalmente respuestas incorrectas, incluso a preguntas fáciles, lo que sugiere que su fiabilidad aún puede mejorarse.
Estos hallazgos resaltan una paradoja en la evolución de la IA: si bien los modelos se están volviendo más poderosos, también pueden volverse menos transparentes respecto de sus limitaciones.
Esto plantea nuevos desafíos en el uso y la confianza de los sistemas de IA, lo que requiere que los usuarios sean más cautelosos y que los desarrolladores se concentren en mejorar no solo la precisión sino también la “autoconciencia” de los modelos.
[anuncio_2]
Fuente: https://baoquocte.vn/cang-thong-minh-tri-tue-nhan-tao-cang-co-xu-huong-giau-dot-287987.html
Kommentar (0)