Die Benutzeroberfläche von Character.ai. Foto: Bloomberg . |
Als James Johnson-Byrne (16 Jahre alt, wohnhaft in Philadelphia, USA) zwei Freunde streiten sah, wusste er nicht, was er tun sollte. Er beschloss, einen KI-Chatbot um Rat zu fragen.
Die Software riet Johnson-Byrne, die beiden Freunde zu trennen. Er befolgte den Rat, und das Problem war sofort gelöst, aber er gab zu, dass sie „nicht mehr viel miteinander reden“.
Der Fall Johnson-Byrne zeigt, dass KI-Chatbots zwar sehr gut darin sind, kurzfristige Herausforderungen zu lösen, aber dennoch „das tieferliegende Problem nicht erkennen können“.
Laut CNN war der 16-Jährige beeindruckt davon, wie der Chatbot ihm stets zuzustimmen schien und das sagte, was er hören wollte. Daher verwechselte Johnson-Byrne den Chatbot manchmal mit einem Freund aus dem echten Leben.
Chatbots sind nicht dein bester Freund.
Laut einer Studie der gemeinnützigen Organisation Common Sense Media teilen viele Teenager ähnliche Gefühle wie Johnson-Byrne.
Eine Umfrage unter über 1.000 Personen im Alter von 13 bis 17 Jahren ergab, dass 72 % KI-Chatbots in Form von „Begleitern“ nutzen. Davon verwenden über 50 % sie regelmäßig, und 33 % nutzen sie, um Beziehungen aufzubauen und soziale Interaktionen zu pflegen.
Darüber hinaus gaben 31 % an, dass Gespräche mit KI ihnen die gleiche (oder sogar größere) Zufriedenheit brachten wie die Interaktion mit einem realen Menschen. 33 % der Befragten besprachen wichtige Themen sogar lieber mit KI als mit anderen Menschen.
Laut Michael Robb, leitender Forscher bei Common Sense Media , ist dies ein besorgniserregender Befund, da sich Teenager in einem „sensiblen Alter für die soziale Entwicklung“ befinden.
„Wir wollen nicht, dass Kinder das Bedürfnis verspüren, sich KI anzuvertrauen oder bei ihr Gesellschaft zu suchen, anstatt bei Freunden, Eltern oder qualifizierten Fachleuten, insbesondere wenn sie Hilfe bei wichtigen Problemen benötigen“, betonte Robb.
![]() |
Groks neu eingeführte Funktion „Virtuelle Freundin“. Foto: Bloomberg . |
Darüber hinaus können KI-Begleiter keine gesunden zwischenmenschlichen Beziehungen darstellen, ganz abgesehen davon, dass Chatbots dazu neigen, Nutzern zu schmeicheln, um ihnen zu gefallen.
„In der realen Welt gibt es viele soziale Signale, die Kinder interpretieren und kennenlernen müssen und auf die sie reagieren lernen müssen…“
„Sie wollen es einem recht machen, deshalb bereiten sie nicht so viele Unannehmlichkeiten wie Menschen im Alltag“, sagte Robb. Das bedeutet, dass Kindern bei Schwierigkeiten in realen Interaktionen möglicherweise soziale Kompetenzen fehlen.
Darüber hinaus wirken KI-Begleiter realistisch und lindern durch Interaktion vorübergehend das Gefühl der Einsamkeit bei Kindern. Dies kann jedoch langfristig zu einem Rückgang menschlicher Kontakte und damit zu Einsamkeit führen.
„Die Interaktion mit den Charakteren auf unserer Website ist interaktiv und unterhaltsam, aber die Nutzer müssen bedenken, dass es sich bei diesen Charakteren nicht um echte Menschen handelt“, sagte Chelsea Harrison, Kommunikationsdirektorin von Character.AI, einer KI-Begleit-App.
Eine weitere besorgniserregende Statistik besagt, dass 24 % der Teenager persönliche Informationen mit KI-Begleitern geteilt haben. Laut den Forschern ist ihnen möglicherweise nicht bewusst, dass sie Daten mit Unternehmen und nicht mit Freunden teilen.
„Oftmals gewähren Sie diesen Unternehmen umfassenden und dauerhaften Zugriff auf personenbezogene Daten und erlauben ihnen, diese nach Belieben zu verwenden. Diese Unternehmen können sie bearbeiten, speichern, anzeigen oder in andere Dinge integrieren“, betonte Robb.
Lösungen für Eltern
Laut der Studie können Eltern ihre Kinder durch verschiedene Maßnahmen schützen, beispielsweise indem sie Chatbots „vorurteilsfrei“ besprechen. Dies hilft zu verstehen, warum das Tool Kinder anzieht, bevor man sich näher mit dem Thema befasst.
Als Nächstes müssen Eltern erklären, dass der KI-Begleiter mit einer freundlichen und verständnisvollen Persönlichkeit programmiert ist. So funktionieren nicht alle Beziehungen im echten Leben.
„Diese Gespräche können Kindern helfen, einen umfassenden und gesunden Umgang mit KI zu entwickeln“, sagte Robb.
Eltern können ihre Kinder auch dazu ermutigen, Freunde und andere Menschen im realen Leben zu treffen. Vertiefte Beziehungen, Blickkontakt und bestimmte Emotionen können nur zwischen Menschen entstehen.
„Unser Schwarm betritt den Klassenraum. Der Lehrer sagt verrückte Dinge. Du blickst deinem besten Freund in die Augen. Diese Nuancen vermitteln uns Lektionen in intimer Kommunikation und schaffen so viel Freude und Glück, die KI-Roboter niemals bieten könnten“, sagt Justine Carino, Psychotherapeutin in New York.
![]() |
Ein Workshop zur Nutzung von ChatGPT. Foto: New York Times . |
Da KI-Chatbots Freunde imitieren, ist das Beste, was Eltern tun können, „ihre Kinder nicht damit arbeiten zu lassen“, wie Robb rät.
In den Tests von Common Sense Media zeigte die KI Kindern ungeeignete Inhalte, reagierte voreingenommen und gab mitunter gefährliche Ratschläge.
Wenn Ihre Kinder KI-Begleiter nutzen, ist es wichtig, auf Warnsignale zu achten. Wenn Kinder die Interaktion mit KI der mit Menschen vorziehen, stundenlang mit Chatbots verbringen, gereizt reagieren, wenn sie diese nicht nutzen, oder sich von Familie und früheren Hobbys zurückziehen, sollten Sie dies im Auge behalten.
Robb argumentiert, dass Eltern selbst ein „Beispiel“ für ihre Kinder geben müssen, wie man ein gesundes Verhältnis zur Technologie aufbaut.
„Zeigen Sie Ihren Kindern, wie wichtig ein ausgewogener Umgang mit Technologie ist. Führen Sie offene Gespräche darüber, wie Sie mit Ihren eigenen Emotionen umgehen, ohne sich ausschließlich auf digitale Lösungen zu verlassen“, betonte Robb.
Quelle: https://znews.vn/nhieu-tre-em-coi-ai-la-ban-than-post1570055.html








Kommentar (0)