Meta, das Unternehmen, dem Facebook gehört, testet seinen ersten eigenen Chip zum Trainieren künstlicher Intelligenzsysteme (KI). Dies ist ein Meilenstein in seinem Bestreben, mehr kundenspezifische Chips zu entwickeln und seine Abhängigkeit von Zulieferern wie Nvidia zu verringern.
Geschätztes Investitionsbudget von 119 Milliarden USD
Das weltweit größte Social-Media-Unternehmen Meta hat mit Tests des Chips im kleinen Maßstab begonnen und plant, die Produktion für den großflächigen Einsatz hochzufahren, wenn der Test erfolgreich ist.
Meta, das Unternehmen, dem Facebook gehört, testet seinen ersten eigenen Chip zum Trainieren von Systemen künstlicher Intelligenz (KI).
Der Vorstoß zur Entwicklung eigener Chips ist Teil von Metas langfristigem Plan, die enormen Infrastrukturkosten zu senken, da das Unternehmen zur Förderung des Wachstums stark auf KI-Tools setzt.
Meta, dem auch Instagram und WhatsApp gehören, prognostiziert für das Jahr 2025 Gesamtausgaben in Höhe von 114 bis 119 Milliarden US-Dollar, darunter bis zu 65 Milliarden US-Dollar an Investitionsausgaben, die größtenteils durch Investitionen in die KI-Infrastruktur getrieben werden.
Der neue Trainingschip von Meta ist ein dedizierter Beschleuniger, das heißt, er ist nur für bestimmte KI-Aufgaben konzipiert, so eine Quelle. Dadurch ist er energieeffizienter als die integrierten Grafikprozessoren (GPUs), die üblicherweise für KI-Aufgaben verwendet werden.
Der Quelle zufolge arbeitet Meta bei der Herstellung dieses Chips mit dem weltweit größten Auftragschiphersteller TSMC zusammen.
Der Testeinsatz begann, nachdem Meta den ersten „Tape-Out“ des Chips abgeschlossen hatte. Dieser ist ein wichtiger Meilenstein in der Siliziumchip-Entwicklung und beinhaltet die Übermittlung des ursprünglichen Designs an eine Chip-Fertigungsanlage. Ein typischer Tape-Out-Prozess kostet mehrere zehn Millionen Dollar und dauert etwa drei bis sechs Monate. Ein erfolgreicher Test ist nicht garantiert. Schlägt der Test fehl, muss Meta das Problem diagnostizieren und den Tape-Out-Schritt wiederholen.
Der Chip ist der neueste in der Meta Training and Inference Accelerator (MTIA)-Reihe des Unternehmens, einem Programm, das im Laufe der Jahre einen holprigen Start hatte und bei dem ein Chip in einem ähnlichen Entwicklungsstadium eingestellt wurde.
Letztes Jahr begann Meta jedoch damit, einen MTIA-Chip zu verwenden, um Inferenzen durchzuführen – also den Prozess, bei dem ein KI-System ausgeführt wird, während Benutzer mit ihm interagieren – für Empfehlungssysteme, die entscheiden, welche Inhalte in den Newsfeeds von Facebook und Instagram erscheinen.
Meta plant bis 2026 den Einsatz interner Trainingschips
Die Führungskräfte von Meta wollen laut eigenen Angaben ab 2026 mit der Nutzung eigener Chips für das Training beginnen. Dabei handelt es sich um den rechenintensiven Prozess, bei dem einem KI-System riesige Datenmengen zugeführt werden, um ihm die Funktionsweise „beizubringen“.
Die Führungskräfte von Meta wollen laut eigenen Angaben bis 2026 mit der Nutzung betriebseigener Chips für Schulungen beginnen.
Wie beim Inferenz-Chip besteht das Ziel des Trainings-Chips darin, mit Empfehlungssystemen zu beginnen und ihn dann für generative KI-Produkte wie den Meta-AI-Chatbot zu nutzen, so Führungskräfte. „Wir untersuchen, wie wir Empfehlungssysteme trainieren und wie wir dann über Training und Inferenz für generative KI nachdenken“, sagte Chris Cox, Chief Product Officer von Meta, letzte Woche auf der Technologie-, Medien- und Telekommunikationskonferenz von Morgan Stanley.
Cox beschrieb die Chipentwicklungsbemühungen von Meta bislang als eine „Lauf-Kriech-Lauf-Situation“, sagte jedoch, dass die Führungskräfte den Inferenzchip der ersten Generation für Empfehlungssysteme als „großen Erfolg“ betrachten.
Meta hatte zuvor einen hauseigenen, maßgeschneiderten Inferenzchip abgesagt, nachdem dieser bei einem kleinen Testeinsatz, der dem aktuellen für den Trainingschip ähnelte, versagt hatte. Stattdessen bestellte Meta im Jahr 2022 wieder GPUs im Wert von mehreren Milliarden Dollar bei Nvidia.
Das Social-Media-Unternehmen ist seitdem einer der größten Kunden von Nvidia und verfügt über eine Flotte von GPUs, um seine Modelle zu trainieren, darunter seine Empfehlungs- und Werbesysteme sowie die Plattformmodelle der Llama-Familie. Diese Einheiten führen auch Inferenzen für die mehr als drei Milliarden Menschen durch, die täglich die Apps des Unternehmens nutzen.
Der Wert dieser GPUs wurde in diesem Jahr in Frage gestellt, da KI-Forscher zunehmend skeptischer wurden, was die weiteren Fortschritte angeht, die durch die weitere „Skalierung“ großer Sprachmodelle durch Hinzufügen weiterer Daten und Rechenleistung erzielt werden können.
Diese Zweifel wurden durch die Markteinführung neuer kostengünstiger Modelle des chinesischen Startups DeepSeek Ende Januar verstärkt. Diese optimieren die Rechenleistung, indem sie sich stärker auf Inferenz stützen als die meisten aktuellen Modelle.
Nvidia-Aktien verloren während eines durch DeepSeek ausgelösten weltweiten Ausverkaufs von KI-Aktien zeitweise bis zu einem Fünftel ihres Wertes. Seitdem haben sie einen Großteil ihrer Verluste wieder wettgemacht, da Anleger darauf setzten, dass die Chips des Unternehmens weiterhin der Industriestandard für Training und Inferenz bleiben würden. Allerdings haben sie sich aufgrund allgemeiner Handelsbedenken inzwischen wieder erholt.
[Anzeige_2]
Quelle: https://www.baogiaothong.vn/meta-bat-dau-thu-nghiem-chip-dao-tao-ai-noi-bo-dau-tien-192250312120123752.htm
Kommentar (0)