
Programme der künstlichen Intelligenz haben in den letzten Jahren viele Durchbrüche erzielt – Foto: REUTERS
Wir können den gesamten Prozess von den Eingangsdaten bis zu den Ausgaberesultaten großer Sprachmodelle (LLMs) nicht beobachten.
Um das Ganze verständlicher zu machen, verwenden Wissenschaftler gängige Begriffe wie „logisches Denken“, um die Funktionsweise dieser Programme zu beschreiben. Sie sagen auch, dass die Programme wie Menschen „denken“, „schlussfolgern“ und „verstehen“ können.
Die Fähigkeiten der KI übertreiben.
Laut ZDNET vom 6. September haben in den letzten zwei Jahren viele Führungskräfte im Bereich der künstlichen Intelligenz übertriebene Formulierungen verwendet, um einfache technische Errungenschaften aufzubauschen.
Im September 2024 gab OpenAI bekannt, dass das o1-Schlussfolgerungsmodell „bei der Problemlösung eine Kette von Schlussfolgerungen verwendet, ähnlich wie Menschen lange nachdenken, wenn sie mit schwierigen Fragen konfrontiert werden.“
KI-Wissenschaftler widersprechen dem jedoch. Sie argumentieren, dass KI keine menschenähnliche Intelligenz besitzt.
Eine Studie auf der arXiv-Datenbank, durchgeführt von einer Autorengruppe der Arizona State University (USA), hat die Fähigkeit von KI zum logischen Denken mit einem einfachen Experiment nachgewiesen.
Die Ergebnisse zeigten, dass „Schlussfolgerungen aus Gedankenketten eine fragile Illusion“ sind, kein wirklicher logischer Mechanismus, sondern lediglich eine ausgeklügelte Form der Mustererkennung.
Der Begriff „Gedankenkette“ (CoT) ermöglicht es der KI, nicht nur zu einer endgültigen Antwort zu gelangen, sondern auch jeden Schritt der logischen Argumentation darzustellen, wie beispielsweise bei den Modellen GPT-o1 oder DeepSeek V1.

Illustration des GPT-2-Sprachmodells von OpenAI - Foto: ECHOCRAFTAI
Sehen Sie selbst, was KI tatsächlich leistet.
Das Forschungsteam stellte fest, dass groß angelegte Analysen gezeigt hätten, dass LLM eher auf Semantik und oberflächliche Hinweise als auf logische Denkprozesse zurückgreife.
„LLM konstruiert oberflächliche Logikketten auf der Grundlage erlernter Eingabeassoziationen und versagt häufig bei Aufgaben, die von herkömmlichen Denkmethoden oder bekannten Mustern abweichen“, erklärt das Team.
Um die Hypothese zu testen, dass LLM lediglich Muster abgleicht und keine tatsächlichen Schlussfolgerungen zieht, trainierte das Team GPT-2, ein Open-Source-Modell, das 2019 von OpenAI veröffentlicht wurde.
Das Modell wurde zunächst mit sehr einfachen Aufgaben zu den 26 englischen Buchstaben trainiert, wie zum Beispiel dem Umkehren einiger Buchstaben, etwa dem Umwandeln von „APPLE“ in „EAPPL“. Anschließend änderte das Team die Aufgabe und bat GPT-2, sie zu lösen.
Die Ergebnisse zeigten, dass GPT-2 Aufgaben, die nicht in den Trainingsdaten enthalten waren, mithilfe von CoT nicht genau lösen konnte.
Stattdessen versucht das Modell, gelernte Aufgaben so genau wie möglich anzuwenden. Daher mag seine „Argumentation“ logisch klingen, aber die Ergebnisse sind oft falsch.
Die Gruppe kam zu dem Schluss, dass man sich nicht zu sehr auf die Antworten des LLM verlassen oder ihnen blind vertrauen sollte, da diese „Unsinn produzieren können, der sehr überzeugend klingt“.
Sie betonten außerdem die Notwendigkeit, das wahre Wesen der KI zu verstehen, Hype zu vermeiden und nicht länger zu propagieren, dass KI die Fähigkeit besitze, wie Menschen zu denken.
Quelle: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm






Kommentar (0)