Apple, Microsoft, Meta und Google haben kürzlich neue KI-Modelle mit weniger „Parametern“, aber dennoch leistungsstarken Funktionen veröffentlicht – ein Schritt der Technologiekonzerne, um auch finanziell eingeschränkte Unternehmen zum Einsatz von KI zu ermutigen.
Illustration: FT
Generell gilt: Je höher die Anzahl der Parameter, desto besser die Leistung von KI-Software und desto komplexer und differenzierter die zu bewältigenden Aufgaben. Das neueste GPT-40-Modell von OpenAI und Googles Gemini 1.5 Pro, die beide diese Woche vorgestellt wurden, verfügen schätzungsweise über mehr als eine Billion Parameter. Meta trainiert derweil eine Version seines Open-Source-Modells Llama mit 400 Milliarden Parametern.
Bedenken hinsichtlich der Daten- und Urheberrechtshaftung haben auch große Technologieunternehmen wie Meta und Google dazu veranlasst, kleine Sprachmodelle mit nur wenigen Milliarden Parametern zu veröffentlichen, die billiger, energieeffizienter und anpassbar sind, weniger Energie zum Trainieren und Ausführen benötigen und zudem die Erfassung sensibler Daten verhindern können.
„Indem wir diese hohe Qualität zu geringeren Kosten erhalten, können unsere Kunden tatsächlich auf mehr Anwendungen zugreifen“, sagte Eric Boyd, Corporate Vice President der Azure AI Platform von Microsoft, die KI-Modelle an Unternehmen verkauft.
Google, Meta, Microsoft und das französische Startup Mistral haben ebenfalls kleinere Sprachmodelle veröffentlicht, die aber dennoch Fortschritte zeigen und sich besser auf spezifische Aufgaben konzentrieren können.
Nick Clegg, Präsident für globale Angelegenheiten bei Meta, erklärte, das neue 8-Milliarden-Parameter-Modell von Llama 3 sei mit GPT-4 vergleichbar. Microsoft gab an, sein kleineres Phi-3-Modell mit 7 Milliarden Parametern übertreffe GPT-3.5, die Vorgängerversion des OpenAI-Modells.
Mikrochips können Aufgaben auch lokal auf dem Gerät verarbeiten, anstatt Informationen in die Cloud zu senden. Dies könnte für datenschutzbewusste Kunden interessant sein, die sicherstellen möchten, dass die Informationen innerhalb des Netzwerks bleiben.
Charlotte Marshall, Partnerin der Anwaltskanzlei Addleshaw Goddard, erklärte, dass die Einhaltung der rechtlichen Anforderungen an die Datenverarbeitung und -übertragung eine der Herausforderungen sei, mit denen viele ihrer Mandanten bei der Einführung von Produkten der generativen KI konfrontiert waren. Kleinere Modelle böten Unternehmen die Möglichkeit, rechtliche und finanzielle Bedenken auszuräumen.
Kleinere Modelle ermöglichen zudem den Einsatz von KI-Funktionen auf Geräten wie Mobiltelefonen. Googles „Gemini Nano“-Modell ist in den neuesten Pixel-Smartphones und Samsungs aktuellem S24-Smartphone verbaut.
Apple hat außerdem bekannt gegeben, dass es KI-Modelle für sein meistverkauftes iPhone entwickelt. Im vergangenen Monat veröffentlichte der Silicon-Valley-Riese OpenELM, ein kleines Modell für textbasierte Aufgaben.
Boyd von Microsoft sagte, die kleineren Modelle würden zu „interessanten Anwendungen führen, bis hin zu Handys und Laptops“.
OpenAI-Direktor Sam Altman erklärte im November, dass das Unternehmen seinen Kunden auch KI-Modelle unterschiedlicher Größe anbiete, die „unterschiedlichen Zwecken dienen“. „Es gibt einige Dinge, die kleinere Modelle wirklich gut können. Das freut mich sehr“, sagte er.
Altman fügte jedoch hinzu, dass OpenAI sich weiterhin auf den Aufbau größerer KI-Modelle mit Skalierbarkeit konzentrieren werde, einschließlich der Fähigkeit, zu argumentieren, zu planen und Aufgaben auszuführen, und letztendlich eine Intelligenz auf menschlichem Niveau zu erreichen.
Hoang Hai (laut FT)
Quelle: https://www.congluan.vn/cac-cong-ty-ai-dang-tim-kiem-loi-nhuan-lon-tu-cac-mo-hinh-ngon-ngu-nho-post296219.html






Kommentar (0)