Vietnam.vn - Nền tảng quảng bá Việt Nam

Das Risiko der „geistigen Degeneration“ aufgrund von KI-Missbrauch

DNVN - Jüngste Studien warnen vor den unvorhersehbaren Folgen, die sich ergeben, wenn Menschen zunehmend auf künstliche Intelligenz (KI) angewiesen sind, insbesondere auf große Sprachmodelle (LLM) wie ChatGPT.

Tạp chí Doanh NghiệpTạp chí Doanh Nghiệp01/10/2025

Ảnh minh họa.

Illustrationsfoto.

Künstliche Intelligenz (KI) durchdringt nahezu alle Lebensbereiche – vom Alltag über Produktion, Bildung und Forschung bis hin zu künstlerischem Schaffen. KI unterstützt Menschen dabei, ihre Aktivitäten zu optimieren, die Produktivität zu steigern und den Personalaufwand zu reduzieren. Die rasante Entwicklung der KI verdeutlicht das kontinuierliche Wachstum von Anwendungen des maschinellen Lernens und der Big-Data-Technologie und hebt die künstliche Intelligenz auf ein neues Entwicklungsniveau.

Trotz dieser großen Vorteile besteht die Gefahr, dass KI den Prozess der Wissensgenerierung in einen geschlossenen Kreislauf verwandelt, die Kreativität bedroht und zur „Degeneration“ des menschlichen Denkens führt.

Der unmittelbare Komfort der Nutzung von KI könnte laut Experten mit langfristigen intellektuellen Kosten verbunden sein.

Hirnfunktionsstörungen und „kognitive Schulden“

Eine viermonatige Studie des Massachusetts Institute of Technology (MIT) hat die tiefgreifenden Auswirkungen übermäßigen KI-Gebrauchs auf das menschliche Gehirn aufgezeigt. Die Studie, die 54 Teilnehmer beim Verfassen von Aufsätzen begleitete, ergab, dass die Nutzung von KI-Tools die Gehirnfunktion und das kritische Denkvermögen beeinträchtigen kann.

Mithilfe der Elektroenzephalografie (EEG) zeichneten die Forscher die Gehirnaktivität der Teilnehmer auf. Die Ergebnisse waren verblüffend: Die Gruppe, die das KI-Tool nutzte, wies deutlich andere neuronale Muster auf als die Gruppe, die nur gedanklich schrieb. Diese Gruppe zeigte bis zu 55 % weniger neuronale Verbindungen als die Gruppe, die nur gedanklich schrieb, insbesondere in Regionen, die für tiefes Denken und die Gedächtnisbildung zuständig sind.

Forscher bezeichnen dieses Phänomen als „kognitive Schulden“. Ähnlich wie finanzielle Schulden, die uns zwar kurzfristig Vorteile bieten, aber später Kosten verursachen, entstehen kognitive Schulden, wenn wir unsere geistige Anstrengung an externe Systeme auslagern und unsere geistigen Fähigkeiten dadurch verkümmern. Bei übermäßiger Nutzung könnte KI den Menschen zu passiven Konsumenten machen und ihm die Fähigkeit zum selbstständigen Denken nehmen.

Die Folgen einer verminderten kognitiven Leistungsfähigkeit sind eindeutig:

Gedächtnisstörung : In der ersten Sitzung der MIT-Studie konnten 83 % der KI-Nutzer nicht aus ihren eigenen Texten zitieren, und keiner war in der Lage, korrekte Zitate anzugeben. Selbst nach mehreren Sitzungen hatten viele noch Schwierigkeiten mit dieser grundlegenden Aufgabe.

Schwächung des kritischen Denkens : Der Einsatz von KI führt zu „oberflächlichem Engagement“ und schwächt die Fähigkeiten zum kritischen Denken, was Aufschieberitis und „Faulheit“ begünstigen kann.

Verminderte Hirnaktivität : Bei denjenigen, die ihre Essays mit KI-Unterstützung verfassten, war die Hirnaktivität deutlich geringer, wobei Regionen, die mit Gedächtnis, kritischem Denken und exekutiven Funktionen in Verbindung stehen, signifikant reduziert waren.

Die Krise der Wissensgenerierung und der „Paradigmenkollaps“

Das Problem mit LLMs liegt nicht in ihrer Fähigkeit zur Synthese, sondern in ihrer Fähigkeit, bereits Vorhandenes wiederzuverwerten. Diese Systeme generieren kein neues Wissen, sondern verbrauchen vorhandene Daten und verteilen sie neu.

Anders als Menschen, die aus vielfältigen Gründen wie Geldgier, Ruhmsucht, Neugier oder Wissensdurst stets nach neuen Wegen suchen, kann KI keine „neuen Dinge“ hervorbringen. Wenn KI nahezu jede komplexe Frage in Sekundenschnelle beantworten kann, wird die Belohnung für menschliche Kreativität allmählich verschwinden.

Dieser Motivationsverlust zeigte sich am Beispiel von Stack Overflow, dem Forum für Programmierer, in dem sie ihr Wissen austauschen: Nur sechs Monate nach dem Erscheinen von ChatGPT sank die Anzahl der Fragen auf der Plattform um mehr als 25 % und liegt mittlerweile bei 90 %. Dies bedeutet den Verlust einer „lebendigen Wissensdatenbank“, in der jede Antwort überprüft, diskutiert und ergänzt wird.

Daten von Plattformen wie Stack Overflow werden seit Langem zum Trainieren von KI-Tools genutzt. Da diese Wissensquelle versiegt, wird die KI zunehmend das wiederholen, was sie bereits produziert hat.

Dieses Phänomen wird als „Modellkollaps“ bezeichnet. Forscher warnen davor, dass die Qualität des Wissens abnimmt, wenn Modelle hauptsächlich mit Daten trainiert werden, die von der KI selbst generiert wurden. Dadurch verlieren sie die Fähigkeit, die Vielfalt und Genauigkeit der realen Welt abzubilden. „Das Gesamtergebnis ist, dass sie schlechter werden. Die Modelle werden schlechter“, schlussfolgert Professorin Hannah Li von der Columbia University.

Das Risiko der Homogenisierung und des Recyclings von Wissen

Neben dem Rückgang individueller kognitiver Fähigkeiten führt der Missbrauch von KI auch zur Homogenisierung von Wissen. Mithilfe von KI verfasste Essays weisen eine auffallende Ähnlichkeit auf, was auf statistisch homogene Muster hindeutet. Dadurch entsteht eine intellektuelle Monokultur, in der unterschiedliche menschliche Perspektiven durch dieselbe algorithmische Linse gefiltert werden, was die kreative Vielfalt potenziell erstickt.

Künstliche Intelligenz (KI) neigt dazu, gängige Muster in Daten hervorzuheben und seltene Informationen, einzigartige Details oder statistisch schwer zu erfassende Daten zunehmend zu ignorieren. Setzt sich dieser Trend fort, droht das Internet, ein reichhaltiger Informationsspeicher, zu einer verschwommenen Welt zu verkommen, in der Wissen verwässert wird. Die Menschheit könnte in eine Phase des „Wissensrecyclings“ eintreten, in der Innovationen stagnieren, da die Belohnung für neue Schöpfungen immer geringer wird.

KI ist ein leistungsstarkes Werkzeug, erfordert aber einen strategischen Ansatz. Forscher des MIT entdeckten ein positives Zeichen: Teilnehmer, die vor dem Einsatz von KI über solide kognitive Grundlagen verfügten, konnten diese effektiver nutzen und zeigten sogar eine erhöhte neuronale Aktivität bei der Einführung des Tools. Sie nutzten KI als echten Assistenten, nicht nur als Unterstützungsinstrument.

Menschliches Wissen basiert auf Anstrengung, Neugier und dem Mut, sich ins Unbekannte vorzuwagen. Wenn KI jedoch zum einzigen Wegbereiter wird, riskieren wir einen Teufelskreis, in dem Menschen und Maschinen gleichermaßen nur noch das bereits Dagewesene wiederholen.

Hien Thao

Quelle: https://doanhnghiepvn.vn/cong-nghe/nguy-co-thoai-hoa-tu-duy-vi-lam-dung-ai/20250928033804291


Kommentar (0)

No data
No data

Gleiches Thema

Gleiche Kategorie

Buchweizenblütezeit, Ha Giang - Tuyen Quang wird zu einem attraktiven Check-in-Ort
Den Sonnenaufgang auf der Insel Co To beobachten
Wandernd zwischen den Wolken von Dalat
Die blühenden Schilffelder in Da Nang ziehen Einheimische und Touristen gleichermaßen an.

Gleicher Autor

Erbe

Figur

Geschäft

Das vietnamesische Model Huynh Tu Anh ist nach der Chanel-Show bei internationalen Modehäusern sehr begehrt.

Aktuelle Ereignisse

Politisches System

Lokal

Produkt