KI funktioniert am besten bei Problemen mit klaren Prozessen und festen Formeln. In Situationen, die subjektives Urteilsvermögen erfordern oder persönliche Vorlieben betreffen, kann KI jedoch menschenähnliche Fehler machen – Foto: AI
Eine neue Studie, die in der Zeitschrift Manufacturing & Service Operations Management von Wissenschaftlern an fünf Universitäten in Kanada und Australien veröffentlicht wurde, untersuchte das Verhalten von ChatGPT (insbesondere der beiden Modelle GPT-3.5 und GPT-4 von OpenAI) in Bezug auf 18 wichtige kognitive Verzerrungen, die in der menschlichen Psychologie häufig vorkommen, wie z. B. Bestätigungsfehler, Endowment-Effekt, Sunk-Cost-Fallacy, Gewissheitspsychologie ...
Die Ergebnisse zeigten, dass sich ChatGPT in fast der Hälfte der getesteten Situationen bei irrationalen oder emotionalen Entscheidungen genau wie ein Mensch verhielt, obwohl das System den Ruf hat, durchgängig logisch zu denken.
Ist KI wirklich so „unparteiisch“ wie erwartet?
Dr. Yang Chen, außerordentlicher Professor für Betriebsführung an der Ivey Business School (Kanada) und Hauptautor der Studie, kommentierte: „KI funktioniert am besten, wenn sie mit der Lösung von Problemen mit klaren Prozessen und festen Formeln beauftragt wird. In Situationen, die jedoch subjektives Urteilsvermögen erfordern oder persönliche Vorlieben betreffen, kann KI wie Menschen Fehler machen.“
Das Forschungsteam hat bekannte hypothetische Situationen aus der Psychologie in ChatGPT integriert und praktische Kontexte wie Bestandsverwaltung oder Verhandlungen mit Lieferanten hinzugefügt.
Es ist erwähnenswert, dass KI-Modelle immer noch kognitive Verzerrungen aufweisen, selbst wenn der Fragekontext vom Abstrakten in die Geschäftsrealität umgewandelt wird.
GPT-4 ist intelligenter, aber nicht perfekt
GPT-4, eine verbesserte Version von GPT-3.5, eignet sich hervorragend zum Lösen von Logik- und Wahrscheinlichkeitsproblemen. Bei subjektiven Simulationen, wie beispielsweise der Wahl einer riskanten Option zur Gewinnsteigerung, zeigt GPT-4 jedoch eine Tendenz zu emotionalerem Verhalten als Menschen.
Insbesondere stellte die Studie fest, dass GPT-4 in Situationen, in denen es um Bestätigungsfehler ging, durchweg verzerrte Antworten lieferte und anfälliger für den „Hot-Hand-Fallacy“ war – die Tendenz zu glauben, dass sich zufällige Ereignisse in einer Reihe wiederholen – als GPT-3.5.
Im Gegensatz dazu ist KI in der Lage, einige der von Menschen häufig begangenen Vorurteile zu vermeiden, wie etwa die Vernachlässigung der Basisrate oder den Trugschluss der versunkenen Kosten.
Der Grund, warum ChatGPT eine menschenähnliche Voreingenommenheit aufweist, liegt in den Trainingsdaten selbst, die voller unserer eigenen voreingenommenen Verhaltensweisen und Denkweisen sind – Foto: AI
Der Ursprung der KI-Voreingenommenheit: Aus menschlichen Daten
Laut dem Team liegt der Grund für die menschenähnlichen Vorurteile von ChatGPT in den Trainingsdaten selbst, die voller voreingenommener Verhaltensweisen und Denkweisen sind. Die Tatsache, dass die KI auf der Grundlage menschlichen Feedbacks optimiert wird, verstärkt diese Voreingenommenheit zusätzlich, da das Modell für Antworten belohnt wird, die vernünftig erscheinen, anstatt absolut korrekt zu sein.
„Wenn Sie präzise und unvoreingenommene Ergebnisse wünschen, nutzen Sie KI für Aufgaben, bei denen Sie bereits darauf vertrauen, dass ein Computer sie gut erledigt“, empfiehlt Dr. Chen. „Bei strategischen oder emotionalen Fragen müssen Menschen jedoch weiterhin überwachen und eingreifen, selbst wenn es nur darum geht, die Frage umzuformulieren.“
„KI sollte als Mitarbeiter mit wichtiger Entscheidungsbefugnis behandelt werden, was bedeutet, dass sie überwacht und ethisch eingehalten werden muss. Andernfalls automatisieren wir versehentlich fehlerhaftes Denken, anstatt es zu verbessern“, sagte Co-Autorin Meena Andiappan, außerordentliche Professorin für Personalwesen und Management an der McMaster University (Kanada).
Quelle: https://tuoitre.vn/ai-cung-mac-sai-lam-phi-ly-va-thien-vi-nhu-con-nguoi-20250505103652783.htm
Kommentar (0)