Vietnam.vn - Nền tảng quảng bá Việt Nam

Warnung vor ChatGPT: „halluzinogen“

Jüngste Studien haben gezeigt, dass GPT o3 und o4-mini – die leistungsstärksten Modelle im Produktportfolio von OpenAI – noch mehr falsche Informationen erzeugen als ihre Vorgänger.

ZNewsZNews20/04/2025

Die beiden neu eingeführten ChatGPT-Modelle weisen eine höhere Frequenz an erzeugten Informationen auf als die Vorgängergeneration. Foto: Fireflies .

Nur zwei Tage nach der Ankündigung von GPT-4.1 hat OpenAI offiziell nicht nur ein, sondern gleich zwei neue Modelle namens o3 und o4-mini vorgestellt. Beide Modelle weisen überlegene Denkfähigkeiten mit zahlreichen leistungsstarken Verbesserungen auf.

Laut TechCrunch leiden diese beiden neuen Modelle jedoch immer noch unter Halluzinationen oder Selbsterfindungen. Tatsächlich weisen sie mehr Halluzinationen auf als einige ältere Modelle von OpenAI.

Laut IBM handelt es sich bei Halluzinationen um Phänomene, bei denen große Sprachmodelle (LLMs) – oft Chatbots oder Computer-Vision-Tools – Datenmuster erhalten, die für Menschen nicht existieren oder nicht erkennbar sind, und dadurch sinnlose oder ungenaue Ergebnisse liefern.

Anders ausgedrückt: Nutzer erwarten häufig, dass KI auf Basis trainierter Daten präzise Ergebnisse liefert. In manchen Fällen basieren die Ergebnisse der KI jedoch nicht auf korrekten Daten, was zu einer falschen Antwort führt.

In ihrem jüngsten Bericht stellte OpenAI fest, dass o3 bei der Beantwortung von 33 % der Fragen auf PersonQA, dem internen Standard des Unternehmens zur Messung der Genauigkeit des Wissens eines Modells über Menschen, "illusorisch" war.

Zum Vergleich: Dieser Wert ist doppelt so hoch wie die „Illusionsrate“ der vorherigen OpenAI-Modelle o1 und o3-mini, die bei 16 % bzw. 14,8 % lag. Das Modell O4-mini schnitt bei PersonQA sogar noch schlechter ab und zeigte in 48 % der Testdauer „Illusionen“.

Noch besorgniserregender ist, dass der „Vater von ChatGPT“ selbst nicht weiß, warum dies geschieht. Konkret heißt es in OpenAIs technischem Bericht zu o3 und o4-mini, dass „weitere Forschung nötig ist, um zu verstehen, warum sich die ‚Halluzinationen‘ bei der Skalierung von Denkmodellen verschlimmern“.

O3 und o4-mini schneiden in einigen Bereichen besser ab, darunter bei Programmier- und Mathematikaufgaben. Da sie jedoch „mehr Aussagen als allgemeine Aussagen treffen müssen“, führen beide Modelle zu „genaueren, aber auch ungenaueren Aussagen“.

Quelle: https://znews.vn/canh-bao-ve-chatgpt-ao-giac-post1547242.html


Kommentar (0)

Hinterlasse einen Kommentar, um deine Gefühle zu teilen!

Gleiche Kategorie

Gleicher Autor

Erbe

Figur

Unternehmen

Aktuelles

Politisches System

Lokal

Produkt

Happy Vietnam
80. Nationalfeiertag

80. Nationalfeiertag

Bambuskörbe

Bambuskörbe

Die Cua Viet Brücke verbindet zwei Ufer des Glücks.

Die Cua Viet Brücke verbindet zwei Ufer des Glücks.