Der Wettlauf um künstliche Intelligenz (KI) wird immer härter, da ständig neue Modelle auf den Markt kommen. Amazon, Microsoft, Apple, Google und Meta werden in Zukunft voraussichtlich weitere Milliarden Dollar in KI-Infrastruktur investieren.
Verbraucht enorme Mengen Strom
Zu den bekanntesten KI-Modellen zählen heute ChatGPT von OpenAI, Chatbot AI von Google, Meta AI von Meta, Olympus von Amazon und MAI-1 von Microsoft. Angesichts der rasanten Entwicklung der KI sind viele Menschen sehr besorgt über die damit verbundenen Risiken und Auswirkungen, insbesondere im Hinblick auf den Energieverbrauch und die steigenden CO2-Emissionen.
Der Energieverbrauch von KI hängt von vielen Faktoren ab, darunter der Art der KI, der Größe des Modells, der Hardware und dem Implementierungsprozess. Um das von OpenAI entwickelte große Sprachmodell GPT-3 mit 175 Milliarden Parametern zu trainieren, mussten Forscher 1.024 GPUs (Graphics Processing Units) etwa einen Monat lang kontinuierlich laufen lassen. Professor Mosharraf Chowdhury von der University of Michigan (USA) schätzte, dass das Training von GPT-3 jedes Mal 1,287 Millionen Kilowattstunden Strom verbrauchte, was dem durchschnittlichen Stromverbrauch eines amerikanischen Haushalts in 120 Jahren entspricht.
ChatGPT verbraucht täglich mehr als 500.000 kWh Strom, was dem durchschnittlichen Stromverbrauch von 17.000 US-Haushalten entspricht. Foto: REUTERS
GPT-3 wurde vor vier Jahren veröffentlicht, und die Parametergröße großer Sprachmodelle (LLMs) wächst heute exponentiell. GPT-4, das 2023 veröffentlicht wird, verfügt mittlerweile über insgesamt 1.760 Milliarden Parameter – zehnmal so viel wie GPT-3. GPT-5, das voraussichtlich Ende 2025 veröffentlicht wird, ist schneller und verfügt über leistungsfähigere Sprachverarbeitungsfunktionen, sodass auch der Energieverbrauch für das Training deutlich höher sein wird.
Mit zunehmender Beliebtheit von Apps und steigender Nutzerzahl steigt auch der Stromverbrauch weiter an. Die Internationale Energieagentur (IEA) gab an, dass ChatGPT zur Deckung seines Bedarfs durchschnittlich 2,9 Watt Strom pro Stunde verbraucht – fast das Zehnfache des durchschnittlichen Stromverbrauchs von Google für die Durchführung von Nutzersuchen.
ChatGPT deckt täglich rund 200 Millionen Suchanfragen und verbraucht dabei jährlich bis zu 182,5 Millionen Kilowattstunden Strom. Google hingegen verzeichnet täglich rund neun Milliarden Suchanfragen. Würde das Unternehmen groß angelegte synthetische KI in seine Suchfunktion integrieren, bräuchte es nach Schätzungen der IEA zusätzlich 10 Milliarden Kilowattstunden Strom pro Jahr.
Förderung der Rechenzentrumsentwicklung
Rechenzentren bilden die Infrastruktur der KI. Sie stellen die für KI benötigten Rechenressourcen, Speicherkapazitäten und Netzwerkbandbreite bereit, damit KI-Anwendungen effizient ausgeführt und entwickelt werden können. Gleichzeitig benötigen Rechenzentren leistungsstarke Kühlsysteme, um die Temperatur konstant zu halten, da Tausende von Servern und Chips rund um die Uhr viel Wärme erzeugen. Daher ist der Stromverbrauch des Rechenzentrums selbst erheblich.
Laut dem IEA-Bericht 2022 wird der weltweite Stromverbrauch von Rechenzentren im Jahr 2022 auf 460 Milliarden Kilowattstunden geschätzt, was fast 2 % des gesamten weltweiten Stromverbrauchs entspricht. Prognosen zufolge könnte sich der Gesamtstromverbrauch von Rechenzentren bis 2026 auf 1.000 Terawattstunden verdoppeln, was fast dem jährlichen Stromverbrauch ganz Japans entspricht.
Neben dem Strombedarf steigt auch der Bedarf an sauberem Wasser zur Kühlung des gesamten Systems. Nach Schätzungen der Forscher wird der Bedarf an KI-Diensten dazu führen, dass die Grundwasserentnahme bis 2027 auf 4,2 bis 6,6 Milliarden Kubikmeter ansteigen wird. Dies entspricht der Hälfte des jährlichen Wasserverbrauchs Großbritanniens.
Viele Beobachter sind der Meinung, dass Technologiekonzerne KI nutzen sollten, um die grüne Wende zu unterstützen. Laut Reuters investieren Technologiegiganten wie Amazon, Microsoft und Google massiv in Solar- und Windkraftprojekte und gestalten Rechenzentren neu, um Kühlwasser zu sparen.
Risiko des Klimawandels
Herr Lu Vincent The Hung, Gründer und CEO der eduX Global Institute Joint Stock Company, ist der Ansicht, dass der Einsatz von KI-Tools keinen direkten Stromverbrauch verursacht. Das Training von KI-Modellen wie GPT-3.5, GPT-4o usw. verursacht jedoch aufgrund des extrem hohen Bedarfs an Verarbeitungsressourcen und des damit verbundenen hohen Energieverbrauchs einen erheblichen Stromverbrauch. Dies ist eine der Ursachen für den Klimawandel, der unter anderem durch globale Erwärmung, Dürren und Überschwemmungen verursacht wird. Darüber hinaus haben KI-Baugeräte oft eine kurze Lebensdauer von nur etwa ein bis zwei Jahren, sodass in naher Zukunft mit einem starken Anstieg des Elektroschrotts zu rechnen ist.
„KI-Trainingseinheiten können einfachere Algorithmen und kompaktere KI-Modelle erstellen, um Energie zu sparen und so auch zur Kostensenkung beizutragen. Gleichzeitig sollten erneuerbare Energien wie Solar- und Windenergie zur Versorgung von KI-Systemen genutzt werden und es sollten spezifische Vorschriften für den maximalen Stromverbrauch beim Betrieb und der Entwicklung dieser Technologie gelten“, schlug Herr Hung vor.
Um Strom zu sparen und KI nachhaltiger und effektiver zu entwickeln, können laut einem Dozenten für Informationstechnologie Cloud-Computing-Lösungen eingesetzt werden, um die Ressourcennutzung beim Betrieb dieser Modelle zu optimieren. Darüber hinaus müssen Technologieunternehmen, die KI-Systeme besitzen, verpflichtet werden, Daten zum Stromverbrauch ihrer Systeme bereitzustellen, um so Energieverbrauchsstandards für KI zu berechnen, die für die langfristige KI-Technologieentwicklung in Vietnam geeignet sind.
L. Provinz
[Anzeige_2]
Quelle: https://nld.com.vn/ai-hut-dien-tren-toan-cau-196240713192735629.htm
Kommentar (0)