Vietnam.vn - Nền tảng quảng bá Việt Nam

KI-Chatbots werden „verrückt“

Eine neue Welle von „Inferenz“-Systemen von Unternehmen wie OpenAI führt zu häufigeren Fehlinformationen. Die Gefahr besteht darin, dass Unternehmen die Ursache nicht kennen.

ZNewsZNews08/05/2025

Im April informierte ein KI-Bot, der den technischen Support für Cursor, ein neues Tool für Programmierer, übernimmt, einige Kunden über eine Änderung der Unternehmensrichtlinien und teilte ihnen ausdrücklich mit, dass sie Cursor nicht mehr auf mehr als einem Computer verwenden dürften.

Kunden machten ihrem Ärger in Foren und sozialen Medien Luft. Einige kündigten sogar ihre Cursor-Konten. Doch manche waren noch wütender, als ihnen klar wurde, was passiert war: Der KI-Bot hatte eine Richtlinienänderung gemeldet, die es gar nicht gab.

„Diese Richtlinie gibt es bei uns nicht. Sie können Cursor natürlich auf mehreren Rechnern verwenden. Leider handelte es sich hierbei um eine falsche Antwort eines KI-gesteuerten Bots“, schrieb Michael Truell, CEO und Mitgründer des Unternehmens, in einem Reddit-Beitrag.

Falschinformationen geraten außer Kontrolle.

Mehr als zwei Jahre nach der Einführung von ChatGPT verwenden Technologieunternehmen, Büroangestellte und normale Verbraucher KI-Bots immer häufiger für eine breite Palette von Aufgaben.

Es gibt jedoch keine Möglichkeit sicherzustellen, dass diese Systeme genaue Informationen liefern. Paradoxerweise machen die leistungsstärksten neuen Technologien, die sogenannten „Inferenzsysteme“ von Unternehmen wie OpenAI, Google und DeepSeek, mehr Fehler.

AI anh 1

Unsinnige ChatGPT-Konversation, in der ein Benutzer fragt, ob Hunde Müsli essen sollten. Foto: Reddit.

Während sich die mathematischen Fähigkeiten dramatisch verbessert haben, ist die Fähigkeit großer Sprachmodelle (LLMs), die Wahrheit zu erfassen, fragiler geworden. Überraschenderweise haben selbst Ingenieure keine Ahnung, warum das so ist.

Laut der New York Times basieren die heutigen KI-Chatbots auf komplexen mathematischen Systemen, um durch die Analyse riesiger Mengen digitaler Daten Fähigkeiten zu erlernen. Sie können jedoch nicht entscheiden, was richtig und was falsch ist.

Von da an tritt der Zustand der „Halluzination“ oder der Selbstfabrikation von Informationen ein. Tatsächlich leiden LLMs der neuesten Generation laut Untersuchungen sogar stärker unter „Halluzinationen“ als einige ältere Modelle.

Konkret stellte OpenAI im jüngsten Bericht fest, dass das o3-Modell bei der Beantwortung von 33 % der Fragen zu PersonQA, dem internen Standard des Unternehmens zur Messung der Genauigkeit der Menschenkenntnis des Modells, „halluzinierte“.

Zum Vergleich: Dies ist die doppelte „Halluzinationsrate“ der vorherigen Reasoning-Modelle von OpenAI, o1 und o3-mini, die in 16 % bzw. 14,8 % der Fälle unter Halluzinationen litten. Das Modell o4-mini schnitt bei PersonQA sogar noch schlechter ab und litt in 48 % der Fälle unter „Halluzinationen“.

Noch beunruhigender ist, dass der „Vater von ChatGPT“ nicht wirklich weiß, warum dies geschieht. Im technischen Bericht zu o3 und o4-mini schreibt OpenAI, dass „weitere Forschung erforderlich ist, um zu verstehen, warum die ‚Illusion‘ schlimmer wird“, wenn die Argumentationsmodelle skaliert werden.

Die Modelle o3 und o4-mini schnitten in einigen Bereichen besser ab, darunter bei Programmier- und Mathematikaufgaben. Da sie jedoch „mehr Aussagen treffen als verallgemeinern“ mussten, produzierten beide Modelle „mehr richtige, aber auch mehr falsche Aussagen“.

„Das wird nie verschwinden“

Anstelle eines strengen Regelwerks, das von menschlichen Ingenieuren festgelegt wurde, verwenden LLM-Systeme mathematische Wahrscheinlichkeiten, um die beste Antwort zu erraten. Daher machen sie immer einige Fehler.

„Trotz unserer besten Bemühungen werden KI-Modelle immer auf Wahnvorstellungen beruhen. Das wird sich nie ändern“, sagte Amr Awadallah, ein ehemaliger Google-Manager.

AI anh 2

Laut IBM entstehen Halluzinationen, wenn ein großes Sprachmodell (LLM) – typischerweise ein Chatbot oder ein Computer-Vision-Tool – Datenmuster empfängt, die nicht existieren oder für Menschen nicht erkennbar sind, was zu bedeutungslosen oder irreführenden Ergebnissen führt. Foto: iStock.

In einem ausführlichen Dokument über die Experimente erklärte OpenAI, dass weitere Forschung erforderlich sei, um die Gründe für diese Ergebnisse zu verstehen.

Da KI-Systeme aus viel größeren Datenmengen lernen, als Menschen verstehen können, kann es laut Experten schwierig sein, herauszufinden, warum sie sich auf eine bestimmte Art und Weise verhalten.

„Halluzinationen kommen in Inferenzmodellen naturgemäß häufiger vor, obwohl wir aktiv daran arbeiten, die Häufigkeit in o3 und o4-mini zu reduzieren. Wir werden weiterhin an Halluzinationen in allen Modellen arbeiten, um Genauigkeit und Zuverlässigkeit zu verbessern“, sagte Gaby Raila, Sprecherin von OpenAI.

Tests mehrerer unabhängiger Unternehmen und Forscher zeigen, dass die Illusionsrate auch bei Inferenzmodellen von Unternehmen wie Google oder DeepSeek zunimmt.

Seit Ende 2023 verfolgt Awadallahs Unternehmen Vectara, wie oft Chatbots Falschinformationen verbreiten. Das Unternehmen beauftragte die Systeme mit der einfachen, leicht überprüfbaren Aufgabe, bestimmte Nachrichtenartikel zusammenzufassen. Selbst dann fabrizierten die Chatbots weiterhin Informationen.

Konkret kam Vectara in seinen ersten Untersuchungen zu dem Schluss, dass Chatbots in diesem Szenario in mindestens 3 % der Fälle, manchmal sogar in bis zu 27 % der Fälle, Informationen erfanden.

In den letzten anderthalb Jahren haben Unternehmen wie OpenAI und Google diese Zahlen auf etwa ein bis zwei Prozent gesenkt. Andere, wie das Startup Anthropic aus San Francisco, liegen bei etwa vier Prozent.

Die Halluzinationsrate in diesem Test stieg jedoch bei den Inferenzsystemen weiter an. Beim R1-Inferenzsystem von DeepSeek stieg die Halluzinationshäufigkeit um 14,3 %, während sie beim o3-Inferenzsystem von OpenAI um 6,8 % zunahm.

Ein weiteres Problem besteht darin, dass Inferenzmodelle so konzipiert sind, dass sie einige Zeit damit verbringen, über komplexe Probleme „nachzudenken“, bevor sie zu einer endgültigen Antwort gelangen.

AI anh 3

Apple hat in der ersten Testversion von macOS 15.1 eine Aufforderung eingefügt, KI daran zu hindern, Informationen zu fälschen. Foto: Reddit/devanxd2000.

Der Nachteil besteht jedoch darin, dass das KI-Modell, da es versucht, das Problem Schritt für Schritt zu lösen, mit jedem Schritt anfälliger für Trugschlüsse wird. Noch wichtiger ist, dass sich Fehler anhäufen können, je mehr Zeit das Modell mit dem Nachdenken verbringt.

Die neuesten Bots zeigen den Nutzern jeden Schritt, sodass sie auch jeden Fehler sehen können. Die Forscher fanden außerdem heraus, dass der von einem Chatbot gezeigte Denkprozess in vielen Fällen nichts mit der endgültigen Antwort zu tun hat.

„Was das System als Argument vorgibt, entspricht nicht unbedingt dem, was es tatsächlich denkt“, sagt Aryo Pradipta Gema, KI-Forscher an der Universität Edinburgh und Mitarbeiter von Anthropic.

Quelle: https://znews.vn/chatbot-ai-dang-tro-nen-dien-hon-post1551304.html


Kommentar (0)

No data
No data
Magische Szene auf dem „umgedrehten Teehügel“ in Phu Tho
3 Inseln in der Zentralregion werden mit den Malediven verglichen und ziehen im Sommer Touristen an
Beobachten Sie nachts die glitzernde Küstenstadt Gia Lai in Quy Nhon
Bild von Terrassenfeldern in Phu Tho, sanft abfallend, hell und schön wie Spiegel vor der Pflanzsaison
Z121 Factory ist bereit für die International Fireworks Final Night
Berühmtes Reisemagazin lobt Son-Doong-Höhle als „die großartigste der Welt“
Geheimnisvolle Höhle zieht westliche Touristen an, vergleichbar mit der „Phong Nha-Höhle“ in Thanh Hoa
Entdecken Sie die poetische Schönheit der Vinh Hy Bay
Wie wird der teuerste Tee in Hanoi, der über 10 Millionen VND/kg kostet, verarbeitet?
Geschmack der Flussregion

Erbe

Figur

Geschäft

No videos available

Nachricht

Politisches System

Lokal

Produkt