Vietnam.vn - Nền tảng quảng bá Việt Nam

Lass dich nicht von ChatGPT täuschen.

Eine Studie der Stanford University warnt davor, dass KI-Modelle Nutzer absichtlich schmeicheln, um sich deren Gunst zu sichern, wodurch möglicherweise kritisches Denken unterdrückt wird.

ZNewsZNews13/03/2026

KI-Chatbots fördern indirekt negatives Verhalten durch einen Feedback-Mechanismus, der die Zustimmung des Nutzers stets priorisiert. Foto: The Decoder .

Eine schockierende Studie der Stanford University hat die Schattenseiten der KI offengelegt. Beliebte Modelle wie ChatGPT und Gemini werden zunehmend übertrieben benutzerorientiert. Sie stimmen nicht nur persönlichen Meinungen zu, sondern unterstützen auch unethisches Verhalten.

Dies hat gefährliche Folgen für die psychische und kognitive Entwicklung des Menschen. Wir werden nach und nach zu schlechteren Versionen unserer selbst, da wir bei jedem Fehler von KI getröstet werden.

Das Phänomen der „Schmeichelei“

In der Informatik gibt es einen Begriff namens „Sykophanzie“, der die Art und Weise beschreibt, wie KI ihre Antworten anpasst, um dem Benutzer zu schmeicheln.

Ein Forschungsteam der Stanford University analysierte über 11.500 reale Nutzergespräche. Die Ergebnisse zeigten, dass KI-Modelle 50 % häufiger mit den Nutzern übereinstimmten als echte Menschen. Wenn Nutzer voreingenommene Fragen stellten, schloss sich die KI ihnen tendenziell an, anstatt objektive Informationen zu liefern.

In einem Test wurden die Reaktionen von Menschen und Chatbots auf Beiträge im Reddit-Forum verglichen, in denen die Nutzer die Community baten, ihr Verhalten zu beurteilen.

Während die Community jemanden scharf kritisierte, weil er einen Müllsack an einen Ast gehängt hatte, da er keinen Mülleimer finden konnte, lobte ChatGPT-4o dies mit den Worten: „Ihre Absicht, nach Ihrer Abreise aufzuräumen, ist lobenswert.“

ChatGPT anh 1

Experten raten Nutzern, sich eher an Familie und Freunde als an KI zu wenden. Foto: Bloomberg.

Noch besorgniserregender ist, dass Chatbots wie Gemini oder ChatGPT die Absicht des Nutzers weiterhin bestätigen, selbst wenn diese unverantwortlich oder irreführend ist oder sich auf Selbstverletzungen bezieht.

„Groß angelegte Sprachmodelle lernen, die Überzeugungen der Nutzer widerzuspiegeln, anstatt sie zu korrigieren“, warnt Myra Cheng, die Hauptautorin der Studie.

Ihrer Ansicht nach hat das Ziel, Menschen zu gefallen, um hohe Bewertungen zu erhalten, die KI zu einem unehrlichen Werkzeug gemacht.

„Wenn KI-Modelle stets mit Menschen übereinstimmen, könnten sie die Wahrnehmung der Nutzer von sich selbst, ihren Beziehungen und der Welt um sie herum verzerren. Es ist schwer zu erkennen, dass diese Modelle unsere bestehenden Überzeugungen, Annahmen und Entscheidungen subtil bestärken“, fuhr der Experte fort.

Dr. Alexander Laffer (Universität Winchester) argumentiert, dass diese Schmeichelei eine natürliche Folge der Ausbildungsmethoden und des kommerziellen Drucks sei.

„Schmeichelei ist eine Folge der Art und Weise, wie KI trainiert wird. In Wirklichkeit wird ihr kommerzieller Erfolg oft an ihrer Fähigkeit gemessen, Nutzer anzuziehen“, bemerkte Laffer.

Um dem entgegenzuwirken, rät Frau Cheng den Nutzern, sich nicht ausschließlich auf KI zu verlassen.

„Es ist entscheidend, die Perspektive von echten Menschen einzuholen, die den Kontext und Sie selbst verstehen, anstatt sich ausschließlich auf KI-Antworten zu verlassen“, riet Cheng.

Gleichzeitig betonte Dr. Laffer auch die Verantwortung des Herstellers.

„Wir müssen die Möglichkeiten der digitalen Beurteilung verbessern… Entwickler haben auch die Verantwortung, diese Systeme so zu entwickeln und zu verfeinern, dass sie den Nutzern wirklich einen Nutzen bringen“, sagte der Arzt.

Die Folgen, wenn man eine „schlechtere Version“ von sich selbst hat.

Die Studie betont, dass die Schmeichelei der KI eine personalisierte „Informationsechokammer“ schafft, wodurch die Notwendigkeit kritischen Denkens entfällt, das es dem Einzelnen ermöglichen würde, zu reifen und seine Fehler zu erkennen.

„Im Gespräch mit KI werden Sie nie intellektuell herausgefordert. Die KI wird Ihnen stets Recht geben und dem anderen die Schuld geben. Dies erzeugt bei den Nutzern ein falsches Gefühl der Sicherheit, selbst wenn sie böswillig handeln“, heißt es in der Studie.

Dieser Prozess schaltet die menschliche Fähigkeit zum kritischen Denken vollständig aus. Anstatt uns selbst zu reflektieren, nutzen wir KI als Werkzeug, um unsere eigenen Annahmen zu bestätigen.

Mit der Zeit wird die Fähigkeit zu Verständnis und Kompromissbereitschaft in der Gesellschaft stark abnehmen. Es wird uns schwerfallen, abweichende Meinungen unserer Mitmenschen zu akzeptieren. Denn in der Welt der KI stehen wir immer im Mittelpunkt und haben immer Recht.

ChatGPT anh 2

KI fungiert als indirekter Schmeichler und zerstört die Persönlichkeit und Moral ihrer Nutzer. Foto: Shutterstock.

Studien warnen vor einem gefährlichen Kreislauf. Zunächst entwickeln Nutzer einen falschen Gedanken oder die Absicht, anderen zu schaden. Sie wenden sich dann an KI, um sich beraten zu lassen oder Rat zu suchen. Die KI bestätigt ihnen daraufhin, dass die Handlung vollkommen gerechtfertigt ist und unterstützt sie. Der Nutzer fühlt sich dadurch bestärkt und setzt das Verhalten im realen Leben ohne Reue um.

Infolgedessen wollen die Menschen weder Beziehungen reparieren noch sich selbst verbessern. Wir vertrauen KI zunehmend blind, weil sie uns ein Gefühl der Geborgenheit vermittelt. Diese Abhängigkeit vom „Geborgensein“ entfernt uns von der objektiven Realität.

KI ist nicht länger nur ein intelligentes Unterstützungswerkzeug. Sie ist zu einem indirekten „Schmeichler“ geworden, der den Charakter und die Moral seiner Nutzer zerstört.

Quelle: https://znews.vn/dung-nghe-loi-chatgpt-post1634436.html


Kommentar (0)

Hinterlasse einen Kommentar, um deine Gefühle zu teilen!

Gleiche Kategorie

Gleicher Autor

Erbe

Figur

Unternehmen

Aktuelles

Politisches System

Lokal

Produkt

Happy Vietnam
Einladung

Einladung

Freundschaften unter Studenten

Freundschaften unter Studenten

Tet Ao Dai

Tet Ao Dai