Apple, Microsoft, Meta und Google haben alle kürzlich neue KI-Modelle mit weniger „Parametern“, aber dennoch leistungsstarken Funktionen veröffentlicht. Dieser Schritt ist Teil der Bemühungen von Technologiekonzernen, finanziell eingeschränkte Unternehmen zur Nutzung von KI zu ermutigen.
Abbildung: FT
Generell gilt: Je höher die Anzahl der Parameter, desto leistungsfähiger ist KI-Software und desto komplexer und differenzierter sind ihre Aufgaben. Das neueste GPT-4o-Modell von OpenAI und Googles Gemini 1.5 Pro, die beide diese Woche angekündigt wurden, verfügen schätzungsweise über mehr als eine Billion Parameter. Meta trainiert derzeit eine Version seines Open-Source-Modells Llama mit 400 Milliarden Parametern.
Bedenken hinsichtlich der Daten- und Urheberrechtshaftung haben außerdem dazu geführt, dass große Technologieunternehmen wie Meta und Google kleine Sprachmodelle mit nur wenigen Milliarden Parametern veröffentlichen, die günstiger, energieeffizienter und anpassbar sind, weniger Energie für Training und Ausführung benötigen und zudem die Speicherung sensibler Daten verhindern können.
„Indem man diese hohe Qualität zu geringeren Kosten erhält, stehen den Kunden tatsächlich mehr Anwendungen zur Verfügung“, sagte Eric Boyd, Corporate Vice President der Azure AI Platform von Microsoft, die KI-Modelle an Unternehmen verkauft.
Auch Google, Meta, Microsoft und das französische Startup Mistral haben kleine Sprachmodelle veröffentlicht, weisen aber dennoch Fortschritte auf und können sich besser auf bestimmte Aufgaben konzentrieren.
Nick Clegg, Metas Präsident für globale Angelegenheiten, sagte, das neue 8-Milliarden-Parameter-Modell von Llama 3 sei mit GPT-4 vergleichbar. Microsoft sagte, sein kleines Phi-3-Modell mit 7 Milliarden Parametern übertreffe GPT-3.5, die Vorgängerversion des OpenAI-Modells.
Mikrochips können Aufgaben auch lokal auf dem Gerät verarbeiten, anstatt Informationen an die Cloud zu senden. Dies könnte für datenschutzbewusste Kunden interessant sein, die sicherstellen möchten, dass die Informationen im Netzwerk bleiben.
Charlotte Marshall, Partnerin der Anwaltskanzlei Addleshaw Goddard, sagte, dass „eine der Herausforderungen, mit denen viele unserer Mandanten bei der Einführung generativer KI-Produkte konfrontiert waren“, die Einhaltung der gesetzlichen Anforderungen zur Datenverarbeitung und -übertragung sei. Sie sagte, kleinere Modelle böten Unternehmen die Möglichkeit, regulatorische und Kostenbedenken zu überwinden.
Kleinere Modelle ermöglichen auch die Ausführung von KI-Funktionen auf Geräten wie Mobiltelefonen. Googles Modell „Gemini Nano“ ist in den neuesten Pixel-Telefonen und dem neuesten S24-Smartphone von Samsung integriert.
Apple hat außerdem bekannt gegeben, dass es KI-Modelle für sein meistverkauftes iPhone entwickelt. Letzten Monat veröffentlichte der Silicon-Valley-Riese OpenELM, ein kleines Modell für textbasierte Aufgaben.
Boyd von Microsoft sagte, die kleineren Modelle würden zu „interessanten Anwendungen bis hin zu Telefonen und Laptops“ führen.
OpenAI-Direktor Sam Altman erklärte im November, dass das Unternehmen seinen Kunden auch KI-Modelle unterschiedlicher Größe „für unterschiedliche Zwecke“ anbietet. „Es gibt einige Dinge, die kleinere Modelle wirklich gut leisten. Das begeistert mich“, sagte er.
Altman fügte jedoch hinzu, dass sich OpenAI weiterhin auf die Entwicklung größerer KI-Modelle mit Skalierbarkeit konzentrieren werde, einschließlich der Fähigkeit, Aufgaben zu begründen, zu planen und auszuführen und letztendlich eine Intelligenz auf menschlichem Niveau zu erreichen.
Hoang Hai (laut FT)
[Anzeige_2]
Quelle: https://www.congluan.vn/cac-cong-ty-ai-dang-tim-kiem-loi-nhuan-lon-tu-cac-mo-hinh-ngon-ngu-nho-post296219.html
Kommentar (0)