Diese Einschätzung geht aus einem kürzlich veröffentlichten internen Memo des Suchmaschinenriesen hervor. Darin äußerten Google-Führungskräfte ihre tiefe Besorgnis über die Möglichkeit, das laufende KI-Rennen zu verlieren.
Ein Google-Vertreter bestätigte später die Echtheit des Dokuments und sagte, es handele sich lediglich um die Meinung eines Firmeninsiders. Er räumte jedoch ein, dass das Unternehmen „nicht in der Lage sei, dieses Rennen zu gewinnen, und OpenAI auch nicht“.
Der Suchmaschinenriese weist darauf hin, dass die Open-Source-Community die führenden KI-Unternehmen schlägt. Obwohl ihre Produkte qualitativ leicht im Vorteil sind, „schließt sich die Lücke unglaublich schnell.“
Kapitalgröße ist nicht der Kernfaktor
KI sorgt seit Ende 2022 mit der Einführung von ChatGPT, einem auf LLM (Large Language Models) basierenden Chatbot, der von OpenAI, einem eng mit Microsoft verbundenen Startup, entwickelt wurde, für Aufsehen in der Öffentlichkeit. Der Erfolg dieses Produkts hat Google und viele andere Technologieunternehmen dazu veranlasst, in das LLM-Rennen einzusteigen.
LLM-Modelle werden anhand von Billionen von Wörtern aus dem Internet trainiert, um menschenähnliche Texte oder Konversationen zu generieren. Dieser Prozess dauert Monate und kostet Dutzende Millionen Dollar. Dies führt zu der Befürchtung, dass die KI von „reichen, wohlhabenden“ Technologieunternehmen dominiert wird.
Doch Googles internes Memo legt nahe, dass diese Annahme falsch ist. Forscher der Open-Source-Community nutzen kostenlose Online-Ressourcen und erzielen Ergebnisse, die mit den größten proprietären Modellen von heute vergleichbar sind.
Dementsprechend können LLMs durch eine Technik namens Low-Level-Adaption oder LoRa „fein abgestimmt“ werden, wodurch ein vorhandenes LLM viel schneller und kostengünstiger für eine bestimmte Aufgabe optimiert werden kann, als wenn ein LLM von Grund auf neu trainiert werden müsste.
So wurde beispielsweise im März LLaMa, ein Modell der Facebook-Muttergesellschaft Meta, online geleakt. Obwohl es klein und mit nur 7 Milliarden Parametern relativ „primitiv“ war (im Vergleich zu den 540 Milliarden Parametern in Googles größtem LLM), wurde LLaMa schnell verfeinert, um bei einigen Aufgaben Ergebnisse zu liefern, die mit der ursprünglichen Version von ChatGPT vergleichbar waren.
Dies könnte gravierende Auswirkungen auf die Zukunft der KI-Entwicklung haben, da „die Hürden für Training und Tests von der Notwendigkeit eines großen Forschungszentrums auf die Notwendigkeit von nur einer Person, einem Abend und einem High-End-Laptop steigen.“
Der Kampf zwischen dem Riesen Goliath und dem Hirten David
Mittlerweile kann ein LLM für nur 100 Dollar in wenigen Stunden optimiert werden. Mit ihrem flexiblen, vernetzten und kostengünstigen Modell bietet Open-Source-KI erhebliche Vorteile, die große Unternehmen wie Google nicht erreichen können. Daher, so das Memo, seien Google oder OpenAI gegenüber diesen Open-Source-Konkurrenten angreifbar.
„Ich glaube nicht, dass ich für viele Aufgaben etwas so Leistungsstarkes wie ChatGPT-4 brauche“, sagte Simon Willison, Programmierer und Technologieanalyst, gegenüber NBC. „Die Frage ist nun, wie klein die Modelle sein können, um trotzdem noch nützlich zu sein? Und das ist etwas, was die Open-Source-Community sehr schnell erforscht .“
Dies steht im völligen Einklang mit der Meinung vieler Experten, dass die stärkste Seite auch die schwächste Seite ist, wenn man sie richtig ausnutzt und beobachtet, wie in der Geschichte vom Riesen Goliath, der vom kleinen Hirtenjungen David nur mit einer Schleuder besiegt wurde.
Wenn es jedoch um die Entwicklung von KI geht, wird nicht jeder diesem Argument zustimmen. Tatsächlich gibt es immer noch kostenpflichtige proprietäre Software wie Adobe Photoshop oder Microsoft Windows, und der KI-Bereich könnte denselben Entwicklungspfad einschlagen.
(Laut Economist, YahooFinance)
[Anzeige_2]
Quelle
Kommentar (0)