Nvidia war einst als Hersteller von Chips für Videospiele bekannt, hat seinen Schwerpunkt in den letzten Jahren jedoch auf den Rechenzentrumsmarkt verlagert.
Der US-Chipkonzern machte während der Pandemie schnell „ein Vermögen“, als die Nachfrage nach Gaming- und Cloud-Anwendungen stieg und sich das „Coin-Mining-Fieber“ auf der ganzen Welt ausbreitete. Im Geschäftsjahr, das am 29. Januar endete, machte das Geschäft mit Rechenzentrumschips mehr als 50 % des Umsatzes des Unternehmens aus.
Unterdessen hat der beliebte Chatbot ChatGPT die generative künstliche Intelligenz (KI) in diesem Jahr auf ein neues Niveau gehoben. Die Technologie nutzt große Mengen vorhandener Daten, um neue Inhalte zu einer breiten Themenpalette zu generieren, von Poesie bis hin zur Computerprogrammierung.
Microsoft und Alphabet, zwei Technologiegiganten, die auch im KI-Bereich große Akteure sind, glauben, dass generative Technologie die Arbeitsweise des Menschen verändern kann. Beide haben einen Wettlauf um die Integration von KI in Suchmaschinen und Bürosoftware gestartet, mit dem Ziel, diese Branche zu dominieren.
Goldman Sachs schätzt, dass die US-Investitionen in KI bis 2030 fast 1 Prozent der Wirtschaftsleistung des Landes betragen könnten.
Supercomputer, die zur Datenverarbeitung und Ausführung generativer KI verwendet werden, sind auf visuelle Verarbeitungseinheiten (GPUs) angewiesen. GPUs sind darauf ausgelegt, bestimmte Berechnungen im Zusammenhang mit KI-Computing viel effizienter durchzuführen als Zentraleinheiten anderer Chiphersteller wie Intel. Beispielsweise wird ChatGPT von OpenAI von Tausenden von Nvidia-GPUs angetrieben.
Mittlerweile hält Nvidia etwa 80 % des GPU-Marktanteils. Zu Nvidias Hauptkonkurrenten zählen Advanced Micro Devices und hauseigene KI-Chips von Technologieunternehmen wie Amazon, Google und Meta Platforms.
Das Geheimnis der Sublimation
Der große Sprung des Unternehmens nach vorn ist dem H100 zu verdanken, einem Chip auf Basis von Nvidias neuer Architektur namens „Hopper“ – benannt nach der amerikanischen Programmierpionierin Grace Hopper. Die explosionsartige Entwicklung der künstlichen Intelligenz hat den H100 zum heißesten Produkt im Silicon Valley gemacht.
Die in Rechenzentren verwendeten übergroßen Chips verfügen über 80 Milliarden Transistoren, fünfmal so viele Siliziumchips wie die neuesten iPhones. Obwohl der H100 doppelt so teuer ist wie sein Vorgänger, der A100 (Markteinführung 2020), sagen Benutzer, dass der Chip die dreifache Leistung bietet.
Der H100 erfreut sich insbesondere bei „Big Tech“-Unternehmen wie Microsoft und Amazon großer Beliebtheit, die ganze Rechenzentren speziell für KI-Workloads aufbauen, sowie bei KI-Startups der neuen Generation wie OpenAI, Anthropic, Stability AI und Inflection AI, da er eine höhere Leistung verspricht, die Produkteinführungen beschleunigen oder die Schulungskosten im Laufe der Zeit senken kann.
„Dies ist eine der knappsten technischen Ressourcen, die es gibt“, sagte Brannin McBee, Chief Strategy Officer und Gründer von CoreWeave, einem KI-basierten Cloud-Startup, das Anfang des Jahres als eines der ersten Unternehmen H100-Lieferungen erhielt.
Einige andere Kunden hatten nicht so viel Glück wie CoreWeave und mussten bis zu sechs Monate auf das Produkt warten, um ihre riesigen Datenmodelle zu trainieren. Viele KI-Startups befürchten, dass Nvidia die Marktnachfrage nicht erfüllen kann.
Elon Musk bestellte außerdem Tausende von Nvidia-Chips für sein KI-Startup und sagte: „GPUs sind derzeit schwerer zu bekommen als Medikamente.“
„Die Computerkosten sind in die Höhe geschossen. Der Mindestbetrag, der für Server-Hardware ausgegeben wird, die zum Aufbau kreativer KI verwendet wird, hat 250 Millionen Dollar erreicht“, erklärte der Tesla-CEO.
Wenn der H100 aktuell ist, liegt der Durchbruch von Nvidias KI-Entwicklung zwei Jahrzehnte zurück und ist eher auf Software- als auf Hardware-Innovationen zurückzuführen. Im Jahr 2006 brachte das Unternehmen die Cuda-Software auf den Markt, mit der die GPU als Werkzeug zur Beschleunigung anderer Aufgaben als Grafikaufgaben eingesetzt werden kann.
„Nvidia hat die Zukunft vor allen anderen erkannt und sich auf programmierbare GPUs konzentriert. Sie haben die Chance erkannt, große Risiken eingegangen und ihre Konkurrenten konsequent überholt“, sagte Nathan Benaich, Partner bei Air Street Capital und Investor in KI-Startups .
(Laut Reuters, FT)
[Anzeige_2]
Quelle
Kommentar (0)