Eine neue Studie, die in der Fachzeitschrift Proceedings of the National Academy of Sciences (PNAS) veröffentlicht wurde, zeigt, dass generative KI wie ChatGPT Arbeitnehmern zwar dabei helfen kann, Aufgaben schneller und effizienter zu erledigen, dies jedoch mit sozialen Kosten verbunden ist: Sie werden von anderen eher als faul, inkompetent oder hilflos angesehen.

Die von einem Team von Sozialwissenschaftlern durchgeführte Studie basiert auf der Attributionstheorie – der Annahme, dass Menschen dazu neigen, die Handlungen anderer eher auf deren intrinsische Motivationen oder Fähigkeiten als auf die Umstände zu deuten. So wird beispielsweise das Bitten um Hilfe manchmal als Zeichen persönlicher Schwäche gewertet. Ebenso kann der Einsatz von KI eher als mangelndes Können oder mangelnde Anstrengung denn als legitimes Instrument zur Effizienzsteigerung gewertet werden.

chatgpt Adobe Stock
Wer ChatGPT am Arbeitsplatz nutzt, wird als faul und inkompetent bezeichnet. Foto: Adobe Stock

In vier Experimenten mit mehr als 4.400 Teilnehmern erzielte das Team bemerkenswerte Ergebnisse. Im ersten Experiment stellten sich die Teilnehmer vor, eine Aufgabe mithilfe von KI oder herkömmlichen Werkzeugen zu erledigen, und prognostizierten anschließend, wie sie von ihren Kollegen und Vorgesetzten wahrgenommen würden. Diejenigen, die dies taten, befürchteten, als faul, ersetzbar und weniger fleißig zu gelten. Sie gaben an, ihren KI-Einsatz nicht öffentlich machen zu wollen.

Ein zweites Experiment zeigte, dass diese Verzerrung tatsächlich zutrifft. Die Teilnehmer wurden gebeten, einen hypothetischen Mitarbeiter zu bewerten: einen, der KI nutzte, einen, der einen Kollegen um Hilfe bat, und einen, der die Arbeit selbst erledigte. Die KI-Nutzer wurden als fauler, weniger kompetent, weniger fleißig und weniger unabhängig wahrgenommen als die beiden anderen Gruppen. Bemerkenswerterweise war diese Wahrnehmung unabhängig von Geschlecht, Alter und Branche des abgebildeten Mitarbeiters.

Ein drittes Experiment untersuchte, ob diese Vorurteile tatsächliche Entscheidungen beeinflussten. Eine Gruppe von Teilnehmern fungierte als Personalvermittler und wählte Kandidaten danach aus, ob diese in ihrer Arbeit KI einsetzten oder nicht. Die Personalvermittler, die mit KI nicht vertraut waren, wählten tendenziell Kandidaten aus, die keine KI nutzten. Umgekehrt fühlten sich diejenigen, die häufig KI nutzten, damit wohler und wählten eher Kandidaten aus, die KI nutzten. Dies deutet darauf hin, dass persönliche Erfahrungen mit der Technologie einen großen Einfluss auf die Einstellung der Bewerter haben.

In einem abschließenden Experiment untersuchte das Team, ob bestimmte Arbeitssituationen diese Voreingenommenheit verändern würden. Bei der Bearbeitung digitaler Aufgaben, wie dem Verfassen von E-Mails, wurden KI-Nutzer nicht als faul wahrgenommen und sogar höher bewertet. Bei manuellen Aufgaben, wie dem handschriftlichen Anfertigen von Notizen, wurden KI-Nutzer jedoch immer noch schlechter bewertet. Die Ergebnisse zeigten, dass die stärkste Voreingenommenheit bei Aufgaben auftrat, die keine KI erforderten.

Interessanterweise neigten Teilnehmer, die angaben, regelmäßig KI zu nutzen, weniger dazu, andere, die diese nutzten, negativ zu beurteilen. Dies deutet darauf hin, dass Vertrautheit und praktische Erfahrung Stigmatisierung reduzieren können. Hauptautorin Jessica Reif, Doktorandin an der Fuqua School of Business der Duke University, sagte, sie habe das Projekt begonnen, nachdem sie von Mitarbeitern gehört hatte, die Bedenken äußerten, für den Einsatz von KI beurteilt zu werden, obwohl ihre Arbeitsleistung nicht nachgelassen hatte.

Diese Studie weist methodische Stärken auf, wie beispielsweise sorgfältig konstruierte Kontrollsituationen. Die Autoren räumen jedoch auch Einschränkungen ein, beispielsweise dass die Situationen eher hypothetisch als tatsächlich beobachtet waren und dass die Bewerter die Bewerter nicht persönlich kannten, was in realen Arbeitsumgebungen anders sein kann.

Diese Ergebnisse unterstreichen, dass KI zwar zu einem nützlichen Werkzeug zur Produktivitätssteigerung wird, ihr Einsatz aber auch die Auswirkungen auf das persönliche Image und den Ruf berücksichtigen muss. Die Forschungsergebnisse erinnern daran: Damit KI wirklich zu einem effektiven Assistenten wird, muss die Wahrnehmung im Arbeitsumfeld selbst verändert werden. KI-Nutzer dürfen nicht vorschnell als inkompetent oder faul abgestempelt werden. Arbeitnehmer sollten nicht nur wissen, wie sie die Technologie nutzen können, sondern auch Transparenz wahren und gleichzeitig Fähigkeiten und persönliche Prägungen entwickeln, um nicht in dem von der KI geschaffenen Image zu versinken.

(Laut PsyPost)

Der Website-Verkehr ist seit ChatGPT und der KI-Suche stark zurückgegangen . Der Verkehr von ChatGPT zu Nachrichtenseiten nimmt zwar zu, reicht aber nicht aus, um den Rückgang des Verkehrs auszugleichen, da die Menschen Nachrichten zunehmend direkt von KI-Chatbots oder KI-gestützten Suchergebnissen lesen.

Quelle: https://vietnamnet.vn/su-dung-chatgpt-trong-cong-viec-bi-danh-gia-luoi-bieng-kem-nang-luc-2422059.html