Laut Daten der Boston Consulting Group wird Rechenzentrumsenergie bis 2030 in den USA 7,5 % des gesamten verfügbaren Stroms verbrauchen, wie Barron's berichtet. Rechenzentren, die für KI-Systeme gebaut werden, können Hunderte von Megawatt Strom pro Einrichtung verbrauchen, sodass das Stromversorgungssystem mit dem rasanten Wachstum der Anzahl von Rechenzentren nicht mehr mithalten kann.
Enormer Energiebedarf für den Betrieb von KI-Servern
Laut der Analyse wird der Energieverbrauch von Rechenzentren in den USA von 2022 bis 2030 von 126 auf 390 Terawattstunden steigen, was ausreichen wird, um 40 Millionen US-Haushalte zu versorgen.
Die 650 Group schätzt, dass sich das Volumen der Serversysteme für KI-Anwendungen bis 2028 versechsfachen und 6 Millionen Einheiten erreichen wird. Laut Gartner-Prognose wird der durchschnittliche Stromverbrauch eines Beschleunigerservers von 650 W auf 1.000 W steigen.
Der Energieverbrauch wird nicht nur aufgrund der steigenden Serveranzahl, sondern auch aufgrund der veränderten Rahmenbedingungen zunehmen. Bemühungen zur Optimierung der Energiekosten durch den Einsatz von KI im Bereich der Energieverbrauchssteuerung können diesen Trend zwar eindämmen, das Problem aber nicht vollständig lösen. Der Übergang zu Flüssigkeitskühlung für Serversysteme ist in den meisten Fällen unumgänglich. Laut Super Micro lassen sich die Betriebskosten von Rechenzentren um mehr als 40 % senken, indem herkömmliche Luftkühlsysteme durch Flüssigkeitskühlung ersetzt werden.
Das Problem wird durch den ungleichmäßigen Ausbau des regionalen Stromnetzes verschärft. Zudem können nicht alle Standorte den erzeugten Strom effizient zu den Standorten energieintensiver Systeme transportieren. Experten zufolge erzeugen die USA zwar genügend Strom, um die Entwicklung von KI-Systemen zu unterstützen, doch es bestehen Probleme mit dem Verteilungsnetz.
Quellenlink






Kommentar (0)