Vietnam.vn - Nền tảng quảng bá Việt Nam

Sollte man ChatGPT „kostenlos“ nutzen?

Da es direkt auf einem normalen Computer läuft, hat das GPT-OSS-Modell eine langsame Reaktionsgeschwindigkeit und es treten häufiger Fälle von "Ghosting" auf.

ZNewsZNews08/08/2025

OpenAI GPT-OSS la gi,  cach cai GPT-OSS,  ChatGPT mien phi,  GPT-OSS-20b anh 1

OpenAI hat soeben GPT-OSS veröffentlicht, das erste offene gewichtete KI-Modell des Unternehmens seit 2018. Ein wesentliches Merkmal ist, dass das Modell kostenlos zur Verfügung steht; Benutzer können es herunterladen, anpassen und auf einem normalen Computer einsetzen. (Bild: OpenAI )

OpenAI GPT-OSS la gi,  cach cai GPT-OSS,  ChatGPT mien phi,  GPT-OSS-20b anh 2

GPT-OSS ist in zwei Versionen verfügbar: Die Version mit 20 Milliarden Parametern (GPT-OSS-20b) läuft auf Rechnern mit mindestens 16 GB RAM, während die Version mit 120 Milliarden Parametern (GPT-OSS-120b) auf einer Nvidia-GPU mit 80 GB Speicher ausgeführt werden kann. Laut OpenAI entspricht die Version mit 120 Milliarden Parametern dem o4-mini, während die Version mit 20 Milliarden Parametern ähnlich wie das o3-mini-Modell funktioniert.

OpenAI GPT-OSS la gi,  cach cai GPT-OSS,  ChatGPT mien phi,  GPT-OSS-20b anh 3

Versionen von GPT-OSS werden über verschiedene Plattformen wie Hugging Face, Azure oder AWS unter der Apache-2.0-Lizenz vertrieben. Nutzer können das Modell herunterladen und mit Tools wie LM Studio oder Ollama auf ihren Computern ausführen. Diese Softwareprogramme sind kostenlos und verfügen über einfache, benutzerfreundliche Oberflächen. So ermöglicht LM Studio beispielsweise, GPT-OSS beim ersten Start auszuwählen und zu laden.

OpenAI GPT-OSS la gi,  cach cai GPT-OSS,  ChatGPT mien phi,  GPT-OSS-20b anh 4

Die Version von GPT-OSS mit 20 Milliarden Parametern ist etwa 12 GB groß. Nach dem Herunterladen werden Sie zu einer interaktiven Oberfläche weitergeleitet, die ChatGPT ähnelt. Klicken Sie im Bereich „Modellauswahl“ auf „OpenAI gpt-oss 20B“ und warten Sie etwa eine Minute, bis das Modell startet.

OpenAI GPT-OSS la gi,  cach cai GPT-OSS,  ChatGPT mien phi,  GPT-OSS-20b anh 5

Wie andere gängige Modelle unterstützt auch das GPT-OSS-20b die vietnamesische Sprachinteraktion. Im Test auf einem iMac M1 (16 GB RAM) benötigte das Gerät für den Befehl „Hallo“ etwa 0,2 Sekunden zum Erkennen und 3 Sekunden zur Antwort. Über das Grafiktablett-Symbol in der oberen rechten Ecke lassen sich Schriftart, Schriftgröße und Hintergrundfarbe für eine bessere Lesbarkeit anpassen.

OpenAI GPT-OSS la gi,  cach cai GPT-OSS,  ChatGPT mien phi,  GPT-OSS-20b anh 6

Auf die Frage „Was kannst du tun?“ versteht und übersetzt GPT-OSS-20b den Befehl nahezu augenblicklich ins Englische und gibt anschließend schrittweise die Antwort aus. Da das Programm direkt auf dem Computer läuft, kann es während der Berechnung und Beantwortung der Fragen häufig zu Systemabstürzen kommen, insbesondere bei komplexen Aufgaben.

OpenAI GPT-OSS la gi,  cach cai GPT-OSS,  ChatGPT mien phi,  GPT-OSS-20b anh 7

GPT-OSS-20b hatte jedoch bereits bei der Frage nach dem 13. Präsidenten der Vereinigten Staaten Schwierigkeiten. Laut OpenAI-Dokumentation erzielte GPT-OSS-20b im SimpleQA-Test, der sich auf die Genauigkeitsfrage bezieht, 6,7 Punkte. Dies ist deutlich weniger als bei GPT-OSS-120b (16,8 Punkte) oder o4-mini (23,4 Punkte).

OpenAI GPT-OSS la gi,  cach cai GPT-OSS,  ChatGPT mien phi,  GPT-OSS-20b anh 8

Auch beim Befehl zum Schreiben und Analysieren von Inhalten reagierte GPT-OSS-20b fehlerhaft und interpretierte den letzten Teil des Satzes falsch. Laut OpenAI ist dies „vorhersehbar“, da kleinere Modelle über weniger Wissen verfügen als größere, wodurch „Illusionen“ häufiger auftreten.

OpenAI GPT-OSS la gi,  cach cai GPT-OSS,  ChatGPT mien phi,  GPT-OSS-20b anh 9

Bei grundlegenden Berechnungs- und Analysefragen liefert GPT-OSS-20b recht schnelle und präzise Ergebnisse. Die Reaktionszeit des Modells ist jedoch aufgrund seiner Abhängigkeit von Rechenressourcen etwas langsamer. Die Version mit 20 Milliarden Parametern unterstützt zudem keine Internetrecherche.

OpenAI GPT-OSS la gi,  cach cai GPT-OSS,  ChatGPT mien phi,  GPT-OSS-20b anh 10

GPT-OSS-20b benötigt für einfache Vergleichs- und Analyseaufgaben von Zahlen und Buchstaben etwa 10–20 Sekunden. Laut The Verge wurde das Modell von OpenAI nach dem großen Erfolg von Open-Source-Modellen wie DeepSeek veröffentlicht. Im Januar räumte OpenAI-CEO Sam Altman ein, mit der Nichtveröffentlichung eines Open-Source-Modells „den falschen Weg eingeschlagen“ zu haben.

OpenAI GPT-OSS la gi,  cach cai GPT-OSS,  ChatGPT mien phi,  GPT-OSS-20b anh 11

Befehle, die mehrere Schritte oder komplexe Daten erfordern, stellen GPT-OSS-20b vor Herausforderungen. Beispielsweise benötigte das Modell fast 4 Minuten, um die ersten 100 Zeichen nach dem Komma in der Zahl Pi zu extrahieren. Zunächst nummerierte GPT-OSS-20b jede Ziffer einzeln, gruppierte sie dann in Zehnergruppen und summierte die Ergebnisse anschließend. Zum Vergleich: ChatGPT, Grok oder DeepSeek benötigen für dieselbe Aufgabe nur etwa 5 Sekunden.

OpenAI GPT-OSS la gi,  cach cai GPT-OSS,  ChatGPT mien phi,  GPT-OSS-20b anh 12

Nutzer können GPT-OSS-20b auch anweisen, einfachen Code, beispielsweise in Python, zu schreiben oder Vektorgrafiken (SVG) zu zeichnen. Mit dem Befehl „Erstelle ein SVG-Bild einer Katze, die über einen Zaun springt“ benötigt das Modell etwa 40 Sekunden, um das Ergebnis zu berechnen, und knapp 5 Minuten, um die Ausgabe zu schreiben.

OpenAI GPT-OSS la gi,  cach cai GPT-OSS,  ChatGPT mien phi,  GPT-OSS-20b anh 13

Komplexe Befehle können viele Tokens verbrauchen. Standardmäßig unterstützt jeder Konversationsstrang 4.906 Tokens. Benutzer können jedoch auf die Schaltfläche „Einstellungen“ neben dem Modellauswahlfeld klicken, die Tokenanzahl im Abschnitt „Kontextlänge“ anpassen und anschließend auf „Neu laden“ klicken, um die Änderungen zu übernehmen . LM Studio weist jedoch darauf hin, dass ein zu hohes Tokenlimit viel RAM oder VRAM beanspruchen kann.

OpenAI GPT-OSS la gi,  cach cai GPT-OSS,  ChatGPT mien phi,  GPT-OSS-20b anh 14

Da es direkt auf dem Gerät ausgeführt wird, kann die Reaktionszeit des Modells je nach Hardware variieren. Auf einem iMac M1 mit 16 GB RAM benötigte GPT-OSS-20b für eine komplexe Berechnung wie die oben genannte etwa 5 Minuten, während ChatGPT nur etwa 10 Sekunden benötigte.

OpenAI GPT-OSS la gi,  cach cai GPT-OSS,  ChatGPT mien phi,  GPT-OSS-20b anh 15

OpenAI behauptet, dass dieses Open-Source-Modell hinsichtlich der Sicherheit das bisher am gründlichsten getestete des Unternehmens sei. In Zusammenarbeit mit unabhängigen Prüforganisationen wurde sichergestellt, dass das Modell keine Risiken in sensiblen Bereichen wie Cybersicherheit oder Biologie birgt. Der Inferenzprozess von GPT-OSS ist öffentlich einsehbar und trägt so zur Erkennung von Fehlverhalten, Spoofing oder Missbrauch bei.

OpenAI GPT-OSS la gi,  cach cai GPT-OSS,  ChatGPT mien phi,  GPT-OSS-20b anh 16

Neben LM Studio können Nutzer auch andere Anwendungen wie Ollama herunterladen, um GPT-OSS auszuführen. Diese Anwendung benötigt jedoch ein Terminalfenster, um das Modell zu laden und zu starten, bevor die normale interaktive Oberfläche aktiviert wird. Auf Mac-Computern ist die Reaktionszeit bei der Ausführung mit Ollama zudem länger als mit LM Studio.

Quelle: https://znews.vn/chatgpt-ban-mien-phi-lam-duoc-gi-post1574987.html


Kommentar (0)

Hinterlasse einen Kommentar, um deine Gefühle zu teilen!

Gleiche Kategorie

Gleicher Autor

Erbe

Figur

Unternehmen

Aktuelles

Politisches System

Lokal

Produkt

Happy Vietnam
Die Frau steht unter dem Fahnenmast.

Die Frau steht unter dem Fahnenmast.

Mut

Mut

Eine kurze Pause für die weiblichen Verkehrspolizistinnen.

Eine kurze Pause für die weiblichen Verkehrspolizistinnen.