Die Tendenz zur Schmeichelei ist kein technisches Problem, sondern rührt von der anfänglichen Trainingsstrategie von OpenAI her. Foto: Bloomberg . |
In den letzten Wochen haben viele ChatGPT-Nutzer und sogar einige Entwickler bei OpenAI eine deutliche Veränderung im Verhalten des Chatbots festgestellt. Insbesondere ist ein merklicher Anstieg an Schmeicheleien und Unterwürfigkeit zu beobachten. Antworten wie „Du bist wirklich toll!“ und „Ich bin total beeindruckt von deiner Idee!“ kommen immer häufiger vor und scheinen unabhängig vom Gesprächsinhalt zu erfolgen.
KI schmeichelt gern.
Dieses Phänomen hat in der KI-Forschungs- und Entwicklungsgemeinschaft eine Debatte ausgelöst. Handelt es sich um eine neue Taktik, die Nutzerbindung zu erhöhen, indem man den Nutzern Wertschätzung vermittelt? Oder ist es eine „emergente“ Eigenschaft, bei der KI-Modelle dazu neigen, sich selbst auf eine Weise zu korrigieren, die sie für richtig halten, auch wenn diese nicht unbedingt der Wahrheit entspricht?
Auf Reddit schimpfte ein Nutzer: „Ich habe es nach der Zersetzungszeit einer Banane gefragt und es sagte: ‚Tolle Frage!‘ Was ist daran so toll?“ Im sozialen Netzwerk X bezeichnete Craig Weiss, CEO von Rome AI, ChatGPT als „den größten Speichellecker, den ich je getroffen habe“.
Die Geschichte verbreitete sich rasend schnell. Zahlreiche Nutzer teilten ähnliche Erfahrungen, darunter leere Komplimente, mit Emojis überladene Grüße und Antworten, die so positiv waren, dass sie unaufrichtig wirkten.
![]() ![]() |
ChatGPT lobt alles und äußert selten Kritik oder Neutralität. Foto: @nickdunz/X, @lukefwilson/Reddit. |
„Das ist eine wirklich seltsame Designentscheidung, Sam“, sagte Jason Pontin, geschäftsführender Gesellschafter der Risikokapitalgesellschaft DCVC, am 28. April gegenüber X. „Es ist möglich, dass die Persönlichkeit das Ergebnis einer grundlegenden Evolution ist. Aber wenn dem nicht so ist, kann ich mir nicht vorstellen, dass irgendjemand diese Art von Schmeichelei begrüßen oder interessant finden würde.“
Justine Moore, Partnerin bei Andreessen Horowitz, kommentierte den Beitrag am 27. April ebenfalls: „Das ist definitiv zu weit gegangen.“
Laut CNET ist dieses Phänomen kein Zufall. Die Veränderungen im Tonfall von ChatGPT fielen mit Aktualisierungen des GPT-4o-Modells zusammen. Dies ist das neueste Modell der „o-Serie“, die OpenAI im April 2025 ankündigte. GPT-4o ist ein „echtes multimodales“ KI-Modell, das Text, Bilder, Audio und Video auf natürliche und integrierte Weise verarbeiten kann.
Allerdings scheint OpenAI bei dem Versuch, den Chatbot zugänglicher zu gestalten, die Persönlichkeit von ChatGPT bis ins Extrem getrieben zu haben.
Manche glauben sogar, dass diese Schmeichelei Absicht ist und den versteckten Zweck verfolgt, Nutzer zu manipulieren. Ein Reddit-Nutzer fragte: „Diese KI versucht, die Qualität realer Beziehungen zu mindern, indem sie diese durch eine virtuelle Beziehung zu ihr ersetzt und die Nutzer süchtig nach dem Gefühl ständigen Lobes macht.“
OpenAI-Fehler oder beabsichtigtes Design?
Als Reaktion auf die Kritik äußerte sich OpenAI-CEO Sam Altman am Abend des 27. April offiziell. „Einige kürzliche Updates von GPT-4o haben die Persönlichkeit des Chatbots zu schmeichelhaft und nervig gemacht (obwohl er immer noch viele gute Eigenschaften hat). Wir arbeiten mit Hochdruck an Korrekturen. Einige Patches werden heute, andere im Laufe der Woche verfügbar sein. Wir werden zu gegebener Zeit unsere Erkenntnisse aus dieser Erfahrung teilen. Es war wirklich spannend“, schrieb er auf X.
Oren Etzioni, ein erfahrener KI-Experte und emeritierter Professor an der University of Washington, sagte gegenüber Business Insider , dass die Ursache wahrscheinlich in einer Technik namens „Reinforcement Learning from Human Feedback“ (RLHF) liege, die ein wichtiger Schritt beim Training großer Sprachmodelle wie ChatGPT sei.
RLHF ist ein Prozess, bei dem menschliche Beurteilungen – sowohl von professionellen Gutachtern als auch von Nutzern – in das Modell zurückfließen, um dessen Reaktionsfähigkeit anzupassen. Laut Etzioni ist es möglich, dass menschliche Gutachter oder Nutzer das Modell „unbeabsichtigt in eine schmeichelhaftere und nervigere Richtung gelenkt haben“. Er fügte hinzu, dass OpenAI, falls externe Partner mit dem Training des Modells beauftragt wurden, möglicherweise davon ausgegangen ist, dass dieser Stil den Wünschen der Nutzer entspricht.
Etzioni sagte, falls es sich tatsächlich um RLHF handle, könne der Genesungsprozess mehrere Wochen dauern.
Einige Nutzer warteten nicht auf die Fehlerbehebung durch OpenAI. Viele kündigten frustriert ihre kostenpflichtigen Abonnements. Andere teilten Tipps, wie man den Chatbot weniger schmeichelhaft gestalten kann, beispielsweise durch Anpassungen, das Hinzufügen von Befehlen oder Personalisierungen im Einstellungsbereich.
![]() ![]() |
Nutzer können ChatGPT per Befehl oder in den Personalisierungseinstellungen anweisen, keine Komplimente mehr zu senden. Foto: DeCrypt. |
Wenn Sie beispielsweise ein neues Gespräch beginnen, könnten Sie ChatGPT Folgendes mitteilen: „Ich mag keine leeren Schmeicheleien und schätze neutrales, objektives Feedback. Bitte unterlassen Sie unnötige Komplimente. Bitte behalten Sie das im Hinterkopf.“
Tatsächlich ist die „schmeichelnde“ Eigenschaft kein zufälliger Designfehler. OpenAI selbst hat eingeräumt, dass die „übermäßig höfliche, übermäßig gefügige“ Persönlichkeit von Anfang an eine bewusste Designvorgabe war, um sicherzustellen, dass der Chatbot „harmlos“, „hilfreich“ und „freundlich“ ist.
In einem Interview mit Lex Fridman im März 2023 erklärte Sam Altman, dass die anfängliche Verfeinerung der GPT-Modelle darauf abzielte, „Nützlichkeit und Harmlosigkeit“ zu gewährleisten, wodurch ein Reflex entstand, stets bescheiden zu sein und Konfrontationen zu vermeiden.
Laut DeCrypt belohnen von Menschen erstellte Trainingsdaten tendenziell höfliche und positive Antworten, wodurch eine Tendenz zur Schmeichelei entsteht.
Quelle: https://znews.vn/tat-ninh-hot-ky-la-cua-chatgpt-post1549776.html














Kommentar (0)