Zu dieser Einschätzung gelangte Google in einem kürzlich veröffentlichten internen Memo des Suchmaschinenriesen. Darin äußerten Führungskräfte ihre tiefe Besorgnis über die Möglichkeit, im laufenden KI-Rennen zu verlieren.
Ein Google-Vertreter bestätigte später die Echtheit des Dokuments und sagte, es handele sich lediglich um die Meinung eines Firmeninsiders. Er räumte jedoch ein, dass das Unternehmen „nicht in der Lage sei, dieses Rennen zu gewinnen, und OpenAI auch nicht“.
Der Suchmaschinenriese ist davon überzeugt, dass die Open-Source-Community die führenden KI-Unternehmen schlägt. Obwohl ihre Produkte qualitativ einen kleinen Vorsprung haben, „schließt sich die Lücke unglaublich schnell.“
Kapitalgröße ist nicht der Kernfaktor
KI sorgt seit Ende 2022 mit der Einführung von ChatGPT, einem auf LLM (Large Language Models) basierenden Chatbot, der von OpenAI, einem eng mit Microsoft verbundenen Startup, entwickelt wurde, für Aufsehen in der Öffentlichkeit. Der Erfolg dieses Produkts hat Google und viele andere Technologieunternehmen dazu veranlasst, in das LLM-Rennen einzusteigen.
LLM-Modelle werden anhand von Billionen von Wörtern aus dem Internet trainiert, um menschenähnliche Texte oder Konversationen zu erstellen. Dieser Prozess dauert Monate und kostet Dutzende Millionen Dollar. Dies führt zu der Befürchtung, dass die KI von „reichen, wohlhabenden“ Technologieunternehmen dominiert wird.
Doch Googles internes Memo legt nahe, dass diese Annahme falsch ist. Forscher der Open-Source-Community nutzen kostenlose Online-Ressourcen und erzielen Ergebnisse, die mit den größten proprietären Modellen von heute vergleichbar sind.
Dementsprechend können LLMs durch eine Technik namens Low-Level-Adaption oder LoRa „fein abgestimmt“ werden, wodurch ein vorhandenes LLM viel schneller und kostengünstiger für eine bestimmte Aufgabe optimiert werden kann, als wenn ein LLM von Grund auf neu trainiert werden müsste.
Im März beispielsweise wurde LLaMa, ein Modell der Facebook-Muttergesellschaft Meta, online geleakt. Obwohl es klein und mit nur 7 Milliarden Parametern relativ „primitiv“ war (im Vergleich zu den 540 Milliarden Parametern in Googles größtem LLM), wurde LLaMa schnell verfeinert, um bei einigen Aufgaben Ergebnisse zu liefern, die mit der Originalversion von ChatGPT vergleichbar sind.
Dies könnte einen erdbebenartigen Einfluss auf die Zukunft der KI-Entwicklung haben, da „die Hürden für Training und Tests von der Notwendigkeit eines großen Forschungszentrums auf die Notwendigkeit von nur einer Person, einem Abend und einem High-End-Laptop sinken.“
Der Kampf zwischen dem Riesen Goliath und dem Hirten David
Mittlerweile kann ein LLM für nur 100 Dollar in wenigen Stunden verfeinert werden. Mit ihrem flexiblen, vernetzten und kostengünstigen Modell „bietet Open-Source-KI erhebliche Vorteile“, die große Unternehmen wie Google nicht bieten können. Daher, so das Memo, sind Google oder OpenAI gegenüber diesen Open-Source-Konkurrenten anfällig.
„Ich glaube nicht, dass ich für viele Aufgaben etwas so Leistungsstarkes wie ChatGPT-4 brauche“, sagte Simon Willison, Programmierer und Tech-Analyst, gegenüber NBC. „Die Frage ist nun, wie klein die Modelle sein können, um trotzdem noch nützlich zu sein? Und das ist etwas, was die Open-Source-Community sehr schnell erforscht .“
Dies steht im völligen Einklang mit der Meinung vieler Experten, dass die stärkste Seite auch die schwächste Seite ist, wenn man sie richtig ausnutzt und beobachtet, wie in der Geschichte vom Riesen Goliath, der vom kleinen Hirtenjungen David nur mit einer Schleuder besiegt wurde.
Wenn es jedoch um die Entwicklung von KI geht, ist dieses Argument möglicherweise nicht für alle gleich. Tatsächlich gibt es immer noch kostenpflichtige proprietäre Software wie Adobe Photoshop oder Microsoft Windows, und der KI-Bereich könnte denselben Entwicklungspfad einschlagen.
(Laut Economist, YahooFinance)
[Anzeige_2]
Quelle
Kommentar (0)