GPT-4 ist „multimodal“, das heißt, es kann Fragen beantworten, die sowohl Bilder als auch Text beinhalten.

Foto: GI
GPT-3.5 liefert nur Ergebnisse für schriftliche Anfragen, während die neueste Version dieses großen Sprachmodells Bilder als Eingabedaten verwenden kann, um Objekte in Bildern zu identifizieren und zu analysieren.
GPT-3.5 ist auf Antworten von etwa 3.000 Wörtern beschränkt, während GPT-4 Antworten von über 25.000 Wörtern ermöglicht.
GPT-4 reagiert 82 % schneller auf Anfragen nach unangemessenen Inhalten als sein Vorgänger und erzielt in mehreren praktischen Tests 40 % höhere Werte.
Es ermöglicht Entwicklern außerdem, den Tonfall, den Stil und den Detaillierungsgrad ihrer KI festzulegen.
OpenAI kündigt an, dass ChatGPT-Nutzer bald die Möglichkeit haben werden, den Tonfall und den Antwortstil des Chatbots zu ändern.
Die neueste Version hat sowohl bei der US-amerikanischen Anwaltsprüfung als auch beim Graduate Resume Exam (GRE) besser abgeschnitten als ihre Vorgängerin.
Laut OpenAI weist GPT-4 ähnliche Einschränkungen wie seine Vorgänger auf und ist „in vielen realen Situationen dem Menschen unterlegen“.
Unzutreffende Antworten, sogenannte „Halluzinationen“, stellen für viele KI-Programme, einschließlich GPT-4, eine Herausforderung dar.
GPT-4 verfügt über keine Kenntnisse von Ereignissen, die nach September 2021 stattgefunden haben.
GPT-4 wird in Microsofts Bing AI-Chatbot und die beliebte Sprachlernplattform Duolingo integriert.
Mai Anh (laut Reuters)
Quelle






Kommentar (0)