GPT-4 est « multimodal », ce qui signifie qu'il peut répondre à des questions incluant à la fois des images et du texte.

Photo : GI
GPT-3.5 ne fournit que des résultats à partir de requêtes écrites, tandis que la dernière version de ce grand modèle de langage peut utiliser des images comme données d'entrée pour identifier et analyser les objets dans les images.
GPT-3.5 est limité à environ 3 000 mots dans les réponses, tandis que GPT-4 autorise des réponses de plus de 25 000 mots.
GPT-4 réagit 82 % plus rapidement aux demandes de contenu inapproprié que son prédécesseur et obtient des scores 40 % supérieurs dans plusieurs tests pratiques.
Cela permettra également aux développeurs de choisir le style et le niveau de détail de leur IA.
OpenAI annonce que les utilisateurs de ChatGPT auront bientôt la possibilité de modifier le ton et le style de réponse du chatbot.
La dernière version a surpassé la précédente à la fois à l'examen du barreau américain et au Graduate Resume Exam (GRE).
Selon OpenAI, GPT-4 présente des limitations similaires à celles de ses prédécesseurs et est « inférieur aux humains dans de nombreuses situations réelles ».
Les réponses inexactes, connues sous le nom d’« hallucinations », constituent un défi pour de nombreux programmes d’IA, dont GPT-4.
GPT-4 ignore les événements survenus après septembre 2021.
GPT-4 est en cours d'intégration dans le chatbot IA Bing de Microsoft et dans la plateforme d'apprentissage des langues populaire Duolingo.
Mai Anh (selon Reuters)
Source






Comment (0)