GPT-4 ist „multimodal“, d. h. es kann Fragen beantworten, die Bilder und Text enthalten.

Foto: GI
GPT-3.5 gibt nur Ergebnisse von Textfragen aus, während die neueste Version dieses großen Sprachmodells Bilder als Eingabedaten verwenden kann, um Objekte im Bild zu erkennen und zu analysieren.
GPT-3.5 ist auf Antworten mit etwa 3.000 Wörtern beschränkt, während GPT-4 Antworten mit über 25.000 Wörtern generieren kann.
GPT-4 reagiert mit 82 % geringerer Wahrscheinlichkeit auf Anfragen nach nicht autorisierten Inhalten als sein Vorgänger und erzielt bei einigen Realismustests 40 % bessere Ergebnisse.
Außerdem können Entwickler den Tonfall und den Detaillierungsgrad ihrer KI bestimmen.
Laut OpenAI werden ChatGPT-Benutzer bald die Möglichkeit haben, den Ton und den Antwortstil des Chatbots zu ändern.
Die neueste Version hat ihren Vorgänger bei der US-Anwaltsprüfung und dem Graduate Record Examination (GRE) übertroffen.
Laut OpenAI weist GPT-4 dieselben Einschränkungen auf wie seine Vorgänger und ist „in vielen realen Situationen weniger leistungsfähig als der Mensch“.
Ungenaues Feedback, sogenannte „Halluzinationen“, ist eine Herausforderung für viele KI-Programme, einschließlich GPT-4.
GPT-4 verfügt über keine Kenntnisse über Ereignisse, die nach September 2021 stattfanden.
GPT-4 wird in den Bing AI-Chatbot von Microsoft und die beliebte Sprachlernplattform Duolingo integriert.
Mai Anh (laut Reuters)
[Anzeige_2]
Quelle
Kommentar (0)