GPT-4 est « multimodal », ce qui signifie qu’il peut répondre à des questions contenant des images et du texte.

Photo : GI
GPT-3.5 génère uniquement des résultats à partir de questions textuelles, tandis que la dernière version de ce grand modèle de langage peut utiliser des images comme données d'entrée pour reconnaître les objets dans l'image et les analyser.
GPT-3.5 est limité à environ 3 000 mots de réponses, tandis que GPT-4 peut générer des réponses de plus de 25 000 mots.
GPT-4 est 82 % moins susceptible de répondre aux demandes de contenu non autorisé que son prédécesseur et obtient des scores 40 % plus élevés sur certains tests de réalisme.
Cela permettra également aux développeurs de décider du ton de la voix et du niveau de détail de leur IA.
OpenAI indique que les utilisateurs de ChatGPT auront bientôt la possibilité de modifier le ton et le style de réponse du chatbot.
La dernière version a surpassé son prédécesseur à l'examen du barreau américain et au Graduate Record Examination (GRE).
Selon OpenAI, GPT-4 présente les mêmes limitations que ses prédécesseurs et est « moins performant que les humains dans de nombreuses situations du monde réel ».
Les retours inexacts appelés « hallucinations » constituent un défi pour de nombreux programmes d’IA, y compris GPT-4.
GPT-4 n’a pas connaissance des événements survenus après septembre 2021.
GPT-4 est en cours d'intégration dans le chatbot Bing AI de Microsoft et dans la célèbre plateforme d'apprentissage des langues Duolingo.
Mai Anh (selon Reuters)
Source
Comment (0)