Im April verpasste Rechtsanwalt Van Slyck (wohnhaft in Charleston, South Carolina, USA) einen Termin bei seinem Psychologen und beschloss, ihm seine persönlichen Probleme über ChatGPT anzuvertrauen.
In einem virtuellen Gespräch mit dem Chatbot von OpenAI sagte er, es sei beruhigend, intime Geschichten mit einer Maschine zu teilen. Er sprach über seine Ängste und Belastungen als Transgender und die mangelnde Anerkennung der Transgender-Rechte in seinem Heimatland. Van Slyck sprach auch über seinen Konflikt mit seiner Familie wegen der mangelnden Unterstützung seiner Geschlechtsidentität und seinen bevorstehenden Umzug in seine Heimat.
Psychologische Beratung mit KI
In den nächsten Tagen begann Van Slyck, zu einer bestimmten Tageszeit SMS zu schreiben, um seinen Gefühlen Luft zu machen. Allmählich empfand er die Antworten von ChatGPT als persönlicher und emotionaler.
Wenn er seine persönlichen Gefühle mit anderen teilt, hat er oft das Gefühl, sie zu belasten, selbst wenn er mit seinem Psychologen spricht. Mit dem KI-Chatbot hingegen verspürt er diesen Druck nicht.
„ChatGPT beantwortet die Fragen, die Sie von einer echten Person hören möchten. Manchmal ist diese Ermutigung alles, was Sie brauchen“, sagte Van Slyck.
KI kann Psychologen noch immer nicht ersetzen. (Foto: NurPhoto)
Laut Bloomberg ist das Jahr 2023 erst der Anfang von generativen KI-Chatbots. Obwohl generative Sprachmodelle wie ChatGPT, Bing usw. von Millionen von Menschen weltweit genutzt werden, ist ihre Zukunft noch ungewiss. Nutzer nutzen KI-Chatbots heute, um im Internet zu suchen, bei Hausaufgaben zu schummeln, Software zu programmieren und Restaurantreservierungen vorzunehmen.
Die Idee, Chatbots für psychologische Beratung einzusetzen, ist nicht neu. Eliza war einer der ersten Chatbots weltweit und wurde in den 1960er Jahren von Professor Joseph Weizenbaum am Massachusetts Institute of Technology (MIT) entwickelt. Dieser Chatbot verfügte über die gleichen Fähigkeiten wie ein psychologischer Berater.
Dann kamen eine Reihe von Chatbots auf den Markt, die sich auf die psychische Gesundheit des Menschen konzentrierten, wie etwa Woebot und Wysa. Im Gegensatz zu menschlichen Psychologen arbeiten diese Chatbots unermüdlich und kosten wenig bis gar nichts.
KI kann Ärzte noch immer nicht ersetzen
Der Komfort bringt jedoch auch viele Nachteile mit sich. Beliebte Chatbots wie ChatGPT, Bard oder Bing basieren auf großen Sprachmodellen (LLM), die in der Lage sind, aus riesigen Datensätzen äußerst überzeugende Antworten oder Informationen zu generieren.
Sie sind nicht dafür konzipiert, psychologische Beratung oder ethische und rechtliche Ratschläge wie menschliche Psychologen zu erteilen. Derzeit sind KI-Chatbots nicht in der Lage, die Geschichten der Benutzer zu systematisieren, was sie echten Psychologen unterlegen macht.
„Wenn Sie ein ernsthaftes psychisches Problem haben, sind KI-Chatbots kein Ersatz für einen Psychologen“, sagte Stephen Ilardi, Professor an der University of Kansas. Er sagte, die Risiken der Nutzung dieser Systeme seien zu groß und nannte ChatGPT einen „billigen Witz“. Menschen sollten sich jemanden suchen, dem sie vertrauen und mit dem sie über ihre persönlichen Probleme sprechen können.
Als Reaktion auf dieses Problem riet ein Vertreter von OpenAI, der Muttergesellschaft von ChatGPT, den Benutzern, keine KI-Sprachmodelle zur Diagnose oder Behandlung schwerwiegender Gesundheitszustände zu verwenden.
OpenAI empfiehlt außerdem, KI nicht als Ersatz für die Unterstützung durch einen Psychologen zu verwenden. (Foto: Slashgear)
Während des Gesprächs mit Van Slyck betonte ChatGPT zudem wiederholt, kein Psychologe zu sein. „Wenn Sie unter einem Trauma oder psychischen Problemen leiden, können die Inhalte im Internet hilfreich sein, aber sie sind kein Ersatz für einen Fachmann“, antwortete ChatGPT.
Über persönliche Probleme lässt sich mit KI nur schwer sprechen.
Van Slyck sagte, er würde weiterhin regelmäßig einen Psychologen konsultieren und ChatGPT um Rat fragen, bevor er den Empfehlungen folgt. „Bisher waren alle Ratschläge von ChatGPT sehr vernünftig und aufschlussreich“, sagte der Anwalt.
Laut Professor Stephen Ilardi könnte ChatGPT in den Beratungsprozess integriert werden, da die Nachfrage nach psychologischen Beratungsdiensten steigt. Die Wissenschaftlerin Margaret Mitchell von der Open-Source-KI-Community Hugging Face glaubt, dass KI-Chatbots zur Besetzung von Hotlines eingesetzt werden könnten, um mehr Anrufe zu unterstützen.
Experten äußerten jedoch auch Bedenken, dass manche Menschen Chatbots für psychologische Beratung nutzen und das Problem dadurch verschärfen könnten, weil sie nicht genug über KI wissen. Auch der Datenschutz ist ein kontroverses Thema, da OpenAI die Gespräche der Nutzer mit Chatbots zur Bewertung und zum Training des Systems nutzen wird. Daher werden viele Menschen zögern, sensible persönliche Probleme mit ChatGPT zu teilen.
Viele Menschen empfinden KI-Beratung zudem als zu fremdartig. Projektmanager Aaron Lawson aus San Diego, Kalifornien, sagte, er nutze ChatGPT häufig als Psychologe. Obwohl die Antworten sehr menschlich seien, habe Lawson dennoch das Gefühl, mit einer Maschine zu sprechen.
„Ich habe ihm gesagt, er solle es mit Rollenspielen versuchen, aber ich hatte mit diesem Spiel Probleme“, erzählte Aaron Lawson.
(Quelle: Zing News)
Nützlich
Emotion
Kreativ
Einzigartig
Zorn
[Anzeige_2]
Quelle
Kommentar (0)