Según BGR , a pesar de las especulaciones sobre la aparición de GPT-5, OpenAI acaba de anunciar la nueva generación del modelo de razonamiento o3 que será el 'corazón' de ChatGPT en el futuro.
El nuevo modelo de lenguaje de OpenAI se lanzará el próximo mes
Para cerrar la serie de anuncios “12 días de ChatGPT”, OpenAI sorprendió con o3, un modelo que promete ofrecer un rendimiento superior en comparación con sus predecesores. El o3-mini se lanzará a finales de enero, seguido por el o3 completo.
OpenAI está a punto de lanzar un nuevo modelo de lenguaje o3
FOTO: CAPTURA DE PANTALLA DE IXBT
Sin embargo, o3 no es el tan esperado GPT-5. Según el Wall Street Journal , el proyecto GPT-5 enfrenta muchas dificultades y retrasos. Conocido con el nombre clave Orión, GPT-5 ha estado en desarrollo durante 18 meses con un costo de entrenamiento enorme, hasta 500 millones de dólares por ejecución.
La razón principal de este retraso proviene de la falta de datos de alta calidad. Las fuentes de datos públicos de Internet se han agotado, lo que ha obligado a OpenAI a buscar alternativas como la creación de datos sintéticos o la contratación de personas para crear datos manualmente. Además, el proceso de entrenamiento del GPT-5 también encontró obstáculos técnicos. Las primeras pruebas muestran que el tiempo y el costo del entrenamiento de GPT-5 superarán ampliamente las expectativas.
También se dice que la salida de muchos empleados de alto nivel después de los disturbios internos en OpenAI a fines de 2023 fue una de las razones por las que el proyecto se vio afectado.
Mientras tanto, se espera que o3 sea un importante paso adelante en el desarrollo de la IA generativa, con capacidades de razonamiento superiores. ¿Es o3 la clave para ayudar a OpenAI a resolver el problema de datos para GPT-5? La respuesta sigue abierta.
Actualmente, OpenAI no ha hecho ningún anuncio oficial sobre la fecha de lanzamiento de GPT-5.
[anuncio_2]
Fuente: https://thanhnien.vn/openai-sap-ra-mat-mo-hinh-o3-gpt-5-van-bat-vo-am-tin-185241225090546797.htm
Kommentar (0)