GPT-4 es “multimodal”, lo que significa que puede responder preguntas que incluyen imágenes y texto.

Foto: GI
GPT-3.5 solo genera resultados de preguntas de texto, mientras que la última versión de este gran modelo de lenguaje puede usar imágenes como datos de entrada para reconocer objetos en la imagen y analizarlos.
GPT-3.5 está limitado a respuestas de aproximadamente 3.000 palabras, mientras que GPT-4 puede generar respuestas de más de 25.000 palabras.
GPT-4 tiene un 82% menos de probabilidades de responder a solicitudes de contenido no autorizado que su predecesor y obtiene una puntuación un 40% más alta en algunas pruebas de realismo.
También permitirá a los desarrolladores decidir el tono de voz y el nivel de detalle de su IA.
OpenAI dice que los usuarios de ChatGPT pronto tendrán la opción de cambiar el tono y el estilo de respuesta del chatbot.
La última versión ha superado a su predecesora en el examen de abogacía de Estados Unidos y en el Graduate Record Examination (GRE).
Según OpenAI, GPT-4 tiene las mismas limitaciones que sus predecesores y es “menos capaz que los humanos en muchas situaciones del mundo real”.
La retroalimentación inexacta llamada “alucinaciones” es un desafío para muchos programas de IA, incluido GPT-4.
GPT-4 carece de conocimiento de los eventos ocurridos después de septiembre de 2021.
GPT-4 se está integrando en el chatbot Bing AI de Microsoft y en la popular plataforma de aprendizaje de idiomas Duolingo.
Mai Anh (según Reuters)
[anuncio_2]
Fuente
Kommentar (0)