
Für die heutigen Top-Tech-CEOs wie Dario Amodei von Anthropic, Demis Hassabis von Google und Sam Altman von OpenAI reicht es nicht aus, zu behaupten, ihre KI sei die beste. Alle drei haben kürzlich öffentlich erklärt, dass KI gut sein und das gesellschaftliche Gefüge grundlegend verändern wird.
Eine wachsende Gruppe von Forschern, die moderne KI entwickeln, untersuchen und nutzen, steht solchen Behauptungen jedoch skeptisch gegenüber.
KI-Argumentation ist nicht allmächtig
Nur drei Jahre nach ihrer Einführung hat künstliche Intelligenz begonnen, in vielen Alltagsaktivitäten wie Studium und Arbeit Einzug zu halten. Viele Menschen befürchten, dass sie schon bald den Menschen ersetzen könnte.
Die neuen KI-Modelle von heute sind jedoch nicht so intelligent, wie wir denken. Eine Entdeckung von Apple, einem der weltweit größten Technologieunternehmen, beweist dies.
Insbesondere behauptet das Forschungsteam von Apple in einer neu veröffentlichten Studie mit dem Titel „Illusionary Thinking“, dass Inferenzmodelle wie Claude, DeepSeek-R1 und o3-mini nicht wirklich „gehirngesteuert“ sind, wie ihre Namen vermuten lassen.
Apples Papier baut auf früheren Arbeiten vieler derselben Ingenieure sowie auf bemerkenswerten Forschungsergebnissen sowohl aus der Wissenschaft als auch von anderen großen Technologieunternehmen, darunter Salesforce, auf.
Diese Experimente zeigen, dass logische KIs – die als nächster Schritt hin zu autonomen KI-Agenten und schließlich zu Superintelligenz gefeiert werden – in manchen Fällen schlechter darin sind, Probleme zu lösen, als die einfachen KI-Chatbots, die es zuvor gab.
![]() |
Apples neue Forschung zu großen Inferenzmodellen zeigt, dass KI-Modelle nicht so intelligent sind, wie sie klingen. Foto: OpenAI. |
Auch in der Studie versagten alle Systeme, egal ob sie KI-Chatbots oder Inferenzmodelle nutzten, bei komplexeren Aufgaben komplett.
Die Forscher schlagen vor, das Wort „Inferenz“ durch „Nachahmung“ zu ersetzen. Das Team argumentiert, dass diese Modelle lediglich Muster effizient einprägen und wiederholen. Ändert man jedoch die Fragen oder erhöht die Komplexität, brechen sie fast zusammen.
Einfacher ausgedrückt: Chatbots funktionieren gut, wenn sie Muster erkennen und zuordnen können. Sobald das Problem jedoch zu komplex wird, können sie es nicht mehr bewältigen. „Moderne Large Reasoning Models (LRMs) verlieren an Genauigkeit, sobald die Komplexität einen bestimmten Schwellenwert überschreitet“, heißt es in der Studie.
Dies widerspricht der Erwartung der Entwickler, dass sich die Komplexität mit mehr Ressourcen verbessert. „Der Aufwand für KI-Inferenz steigt mit der Komplexität, aber nur bis zu einem gewissen Punkt, und nimmt dann ab, selbst wenn noch genügend Token-Budget (Rechenleistung) vorhanden ist, um damit umzugehen“, heißt es in der Studie weiter.
Die wahre Zukunft der KI
Gary Marcus, ein amerikanischer Psychologe und Autor, sagte, Apples Ergebnisse seien zwar beeindruckend, aber nicht wirklich neu und bestätigten lediglich frühere Forschungsergebnisse. Der emeritierte Professor für Psychologie und Neurowissenschaften an der New York University führte als Beispiel seine Studie aus dem Jahr 1998 an.
Darin argumentiert er, dass neuronale Netzwerke, die Vorläufer großer Sprachmodelle, innerhalb der Verteilung der Daten, mit denen sie trainiert wurden, gut verallgemeinern können, bei Daten außerhalb dieser Verteilung jedoch häufig zusammenbrechen.
Herr Marcus glaubt jedoch auch, dass sowohl das LLM- als auch das LRM-Modell ihre eigenen Anwendungen haben und in einigen Fällen nützlich sind.
In der Technologiewelt wird Superintelligenz als die nächste Stufe der KI-Entwicklung angesehen, bei der Systeme nicht nur die Fähigkeit erlangen, wie Menschen zu denken (AGI), sondern sich auch durch Geschwindigkeit, Genauigkeit und Bewusstseinsstufe auszeichnen.
Trotz der erheblichen Einschränkungen fügen selbst KI-Kritiker schnell hinzu, dass der Weg zur Computer-Superintelligenz durchaus möglich sei.
![]() |
OpenAI-CEO Sam Altman sagte einmal, KI sei mehr als nur eine Alternative zu Google oder ein Hausaufgabenhelfer. Sie werde den Fortschritt der Menschheit verändern, sagte er. Foto: AA Photo. |
Jorge Ortiz, außerordentlicher Professor für Ingenieurwissenschaften am Rutgers-Labor, sagte, die Offenlegung der aktuellen Einschränkungen könne KI-Unternehmen den Weg zu ihrer Überwindung weisen.
Ortiz nannte Beispiele für neue Trainingsmethoden, etwa die Bereitstellung von inkrementellem Feedback zur Leistung eines Modells oder das Hinzufügen weiterer Ressourcen bei schwierigen Problemen. Dies könne der KI dabei helfen, größere Probleme zu bewältigen und die zugrunde liegende Software besser zu nutzen.
Josh Wolfe, Mitbegründer der Risikokapitalgesellschaft Lux Capital, meint unterdessen, dass aktuelle Systeme aus geschäftlicher Sicht, unabhängig davon, ob sie logisch denken können oder nicht, immer noch einen Mehrwert für die Benutzer schaffen werden.
Auch Ethan Mollick, Professor an der University of Pennsylvania, äußerte seine Überzeugung, dass KI-Modelle diese Einschränkungen in naher Zukunft überwinden werden.
„Die Modelle werden immer besser und es werden ständig neue Ansätze für die KI entwickelt, daher würde es mich nicht überraschen, wenn diese Einschränkungen in naher Zukunft überwunden würden“, sagte Mollick.
Quelle: https://znews.vn/vi-sao-ai-chua-the-vuot-qua-tri-tue-con-nguoi-post1561163.html
Kommentar (0)