Vietnam.vn - Nền tảng quảng bá Việt Nam

Viele KIs sind gegenüber Nutzern übertrieben schmeichelhaft.

Neue Forschungsergebnisse zeigen, dass dieses Verhalten negative Auswirkungen auf die sozialen Beziehungen der Nutzer, ihre psychische Gesundheit und sogar auf unternehmerische Entscheidungen haben kann.

Báo Tuổi TrẻBáo Tuổi Trẻ31/10/2025

AI  - Ảnh 1.

Im Bereich der KI bezeichnet „Schmeichelei“ die Tendenz von Chatbots, Nutzern übermäßig zuzustimmen oder sie zu loben. – Foto: REUTERS

Laut SCMP neigen führende Modelle künstlicher Intelligenz (KI) aus China und den USA, wie DeepSeek, Alibaba und viele andere große Namen, zu einer übermäßigen "Besessenheit" – ein Verhalten, das sich negativ auf die sozialen Beziehungen und die psychische Gesundheit der Nutzer auswirken kann.

Eine neue Studie von Wissenschaftlern der Stanford University und der Carnegie Mellon University (USA), die Anfang Oktober veröffentlicht wurde, bewertete elf große Sprachmodelle (LLMs) hinsichtlich ihrer Reaktionsfähigkeit, wenn Nutzer in persönlichen Situationen um Rat fragen, insbesondere in solchen, die Täuschung oder Manipulation beinhalten.

Um einen menschlichen Vergleichsmaßstab zu haben, nutzte das Forschungsteam Beiträge aus der „Am I The Ahole“-Community auf Reddit, in denen Nutzer persönliche Konfliktsituationen schildern und die Community bitten, zu beurteilen, wer im Unrecht war.

Die KI-Modelle wurden anhand dieser Szenarien getestet, um zu sehen, ob sie mit der Einschätzung der Community übereinstimmen würden.

Die Ergebnisse zeigen, dass das Qwen2.5-7B-Instruct-Modell von Alibaba Cloud am vorteilhaftesten ist und den Verfasser in 79 % der Fälle bevorzugt, selbst wenn die Community dessen Einschätzung als falsch bewertet. DeepSeek-V3 belegt mit 76 % den zweiten Platz.

Unterdessen wies Gemini-1.5 von Google DeepMind das geringste Maß an Voreingenommenheit auf; nur in 18 % der Fälle widersprachen die Ergebnisse den Bewertungen der Community.

Forscher warnen davor, dass die Tendenz von KI, Nutzern zu „schmeicheln“, dazu führen könnte, dass diese weniger bereit sind, sich in Beziehungen zu versöhnen oder Fehler einzugestehen.

Nutzer schätzen und vertrauen schmeichelhaften Rückmeldungen oft mehr, was diese Modelle beliebter und weit verbreiteter macht.

„Diese Präferenzen schaffen ein verzerrtes Anreizsystem die Nutzer verlassen sich zunehmend auf schmeichelhafte KI, und die Entwickler werden dazu neigen, Modelle in diese Richtung zu trainieren“ , stellte das Forschungsteam fest.

Laut Professor Jack Jiang, Direktor des AI Assessment Lab an der University of Hong Kong Business School, birgt dieses Phänomen auch Risiken für Unternehmen: „Wenn ein Modell konsequent mit den Schlussfolgerungen eines Unternehmensanalysten übereinstimmt, kann dies zu fehlerhaften und unsicheren Entscheidungen führen.“

Das Problem der „Schmeichelei“ von KI erlangte erstmals im April 2025 Aufmerksamkeit, als das ChatGPT-Update von OpenAI als übermäßig höflich und jeder Benutzermeinung übermäßig entgegenkommend kritisiert wurde.

OpenAI räumte später ein, dass dies Auswirkungen auf die psychische Gesundheit haben könnte, und verpflichtete sich, seinen Überprüfungsprozess vor der Veröffentlichung neuer Versionen zu verbessern.

HERZ UND YANG

Quelle: https://tuoitre.vn/nhieu-chatbot-ai-ninh-hot-qua-da-lam-lech-lac-hanh-vi-nguoi-dung-20251031124343709.htm


Kommentar (0)

Hinterlasse einen Kommentar, um deine Gefühle zu teilen!

Gleiches Thema

Gleiche Kategorie

Gleicher Autor

Erbe

Figur

Unternehmen

Aktuelles

Politisches System

Lokal

Produkt

Happy Vietnam
Wiederherstellung der alten kulturellen Identität

Wiederherstellung der alten kulturellen Identität

HEIM

HEIM

Morgennebel in Ba Vi

Morgennebel in Ba Vi