Meta-CEO Mark Zuckerberg postete am 18. Januar auf Instagram Reels, dass die „Zukunfts-Roadmap“ des Unternehmens für KI den Aufbau einer „massiven Computerinfrastruktur“ erfordert, die bis Ende 2024 von 350.000 Nvidia H100-Chips angetrieben wird.
Mark Zuckerberg sagt, dass KI im Jahr 2024 die höchste Investitionspriorität von Meta sein wird. |
Zuckerberg gab nicht bekannt, wie viele GPUs er gekauft hat. Der Nvidia H100 soll jedoch Ende 2022 auf den Markt kommen und ist nur in sehr begrenztem Umfang verfügbar. Analysten von Raymond James schätzen, dass Nvidia den H100 für 25.000 bis 30.000 US-Dollar verkauft. Auf eBay könnte der Chip über 40.000 US-Dollar einbringen. Sollte Meta einen niedrigeren Preis erzielen, würden die Kosten bei fast 9 Milliarden US-Dollar liegen.
Darüber hinaus gab der CEO von Meta bekannt, dass die Rechenleistung der Infrastruktur bei Einbeziehung anderer GPUs 600.000 H100 entspricht. Im Dezember 2023 gaben Meta, OpenAI und Microsoft bekannt, dass sie AMDs neuen KI-Chip Instinct MI300X verwenden werden.
Meta benötigt so viele „schwere“ Computerchips, weil das Unternehmen künstliche Intelligenz (AGI) anstrebt, die Zuckerberg als „langfristige Vision“ bezeichnet. OpenAI und Googles DeepMind arbeiten ebenfalls an AGI – einer futuristischen KI, die der menschlichen Intelligenz Konkurrenz machen soll.
Auch Meta- Chefwissenschaftler Yann LeCun betonte die Bedeutung von GPUs letzten Monat auf einer Veranstaltung in San Francisco, USA. Er sagte, wer AGI wolle, müsse mehr GPUs kaufen. „Es gibt ein KI-Rennen, und er (Nvidia-CEO Jensen Huang) liefert die Waffen.“
In seinem Ergebnisbericht für das dritte Quartal 2023 gab Meta an, dass die Gesamtausgaben im Jahr 2024 zwischen 94 und 99 Milliarden US-Dollar liegen würden, unter anderem für den Ausbau der Rechenkapazitäten. In einem Treffen mit Analysten bestätigte der Vorstandsvorsitzende des Konzerns zudem, dass „KI im Hinblick auf die Investitionsprioritäten im Jahr 2024 der größte Investitionsbereich sein wird, sowohl in Bezug auf Technologie als auch auf Rechenressourcen.“
Mark Zuckerberg sagte, Meta plane, das von ihm entwickelte Modell der „allgemeinen KI“ „verantwortungsvoll als Open Source“ bereitzustellen. Ein Ansatz, den das Unternehmen bereits mit seiner umfangreichen Sprachproduktlinie Llama verfolgt.
Meta trainiert derzeit Llama 3 und unterstützt gleichzeitig das Fundamental AI Research (FAIR)-Team und das GenAI-Forschungsteam bei der engeren Zusammenarbeit.
[Anzeige_2]
Quelle
Kommentar (0)