Vietnam.vn - Nền tảng quảng bá Việt Nam

Advertencia sobre ChatGPT "alucinógeno"

Estudios recientes han demostrado que GPT o3 y o4-mini, los modelos más potentes de la cartera de productos de OpenAI, están fabricando incluso más información falsa que sus predecesores.

ZNewsZNews20/04/2025

Los dos nuevos modelos ChatGPT presentan una mayor frecuencia de información inventada que la generación anterior. Foto: Fireflies .

Tan solo dos días después de anunciar GPT-4.1, OpenAI lanzó oficialmente no uno, sino dos nuevos modelos, denominados o3 y o4-mini. Ambos modelos demuestran capacidades de razonamiento superiores con numerosas mejoras importantes.

Sin embargo, según TechCrunch , estos dos nuevos modelos aún presentan alucinaciones o autoinvención. De hecho, presentan más alucinaciones que algunos de los modelos anteriores de OpenAI.

Según IBM, las alucinaciones son fenómenos en los que los grandes modelos de lenguaje (LLM), a menudo chatbots o herramientas de visión artificial, reciben patrones de datos que no existen o son irreconocibles para los humanos, lo que produce resultados sin sentido o inexactos.

En otras palabras, los usuarios suelen esperar que la IA produzca resultados precisos basándose en datos entrenados. Sin embargo, en algunos casos, los resultados de la IA no se basan en datos precisos, lo que genera una respuesta "falsa".

En su último informe, OpenAI descubrió que o3 era "ilusorio" al responder el 33% de las preguntas en PersonQA, el estándar interno de la empresa para medir la precisión del conocimiento de un modelo sobre los humanos.

A modo de comparación, esta cifra duplica la tasa de "ilusión" de los modelos de razonamiento anteriores de OpenAI, o1 y o3-mini, que fueron del 16 % y el 14,8 %, respectivamente. Por otro lado, el modelo O4-mini obtuvo peores resultados en PersonQA, experimentando "ilusión" durante el 48 % de la prueba.

Lo que es más preocupante, el "padre de ChatGPT" desconoce la causa de esto. En concreto, en su informe técnico sobre o3 y o4-mini, OpenAI afirma que se necesita más investigación para comprender por qué las 'alucinaciones' empeoran al escalar los modelos de razonamiento.

O3 y o4-mini tienen un mejor rendimiento en algunas áreas, como programación y tareas matemáticas. Sin embargo, dado que necesitan formular más afirmaciones que las generales, ambos modelos han dado como resultado afirmaciones más precisas, pero también más imprecisas.

Fuente: https://znews.vn/canh-bao-ve-chatgpt-ao-giac-post1547242.html


Kommentar (0)

¡Deja un comentario para compartir tus sentimientos!

Misma categoría

Mismo autor

Herencia

Cifra

Empresas

Actualidad

Sistema político

Local

Producto

Happy Vietnam
Personas y flores, personas y flores juntas / Flores y personas mostrando su vibrante belleza.

Personas y flores, personas y flores juntas / Flores y personas mostrando su vibrante belleza.

La belleza de Saigón

La belleza de Saigón

Las flores florecen pacíficamente

Las flores florecen pacíficamente