Vietnam.vn - Nền tảng quảng bá Việt Nam

Verbrauchen KI-Chatbots wirklich so viel Strom, wie gemunkelt wird?

KI-Chatbots boomen mit Hunderten von Millionen täglicher Nutzer, doch hinter diesem Komfort verbirgt sich ein enormer Energieverbrauch, der Bedenken hinsichtlich der Nachhaltigkeit aufwirft.

VTC NewsVTC News19/09/2025

ChatGPT hat in den letzten Jahren einen enormen Popularitätsschub erlebt: Fast 200 Millionen Nutzer stellen täglich über eine Milliarde Anfragen. Diese Antworten, die scheinbar „aus dem Nichts“ generiert werden, verbrauchen im Hintergrund tatsächlich enorme Mengen an Energie.

Im Jahr 2023 entfielen 4,4 % des Stromverbrauchs in den USA auf Rechenzentren, in denen KI trainiert und betrieben wird. Weltweit lag dieser Wert bei rund 1,5 % des gesamten Strombedarfs. Prognosen zufolge wird sich der Verbrauch bis 2030 verdoppeln, da die Nachfrage nach KI weiter steigt.

„Noch vor drei Jahren gab es ChatGPT gar nicht“, sagte Alex de Vries-Gao, Forscher für die Nachhaltigkeit neuer Technologien an der Vrije Universiteit Amsterdam und Gründer von Digiconomist, einer Plattform, die die unbeabsichtigten Folgen digitaler Trends analysiert. „Und jetzt sprechen wir über eine Technologie, die potenziell fast die Hälfte des weltweiten Stromverbrauchs von Rechenzentren ausmachen könnte.“

Eine Anfrage an ein großes Sprachmodell (LLM) verbraucht etwa zehnmal so viel Strom wie eine typische Google-Suche. (Bild: Qi Yang/Getty Images)

Eine Anfrage an ein großes Sprachmodell (LLM) verbraucht etwa zehnmal so viel Strom wie eine typische Google-Suche. (Bild: Qi Yang/Getty Images)

Warum sind KI-Chatbots so energieintensiv? Die Antwort liegt in ihrem enormen Umfang. Laut Informatikprofessor Mosharaf Chowdhury von der Universität Michigan gibt es zwei besonders energieintensive Phasen: den Trainingsprozess und den Inferenzprozess.

„Das Problem ist jedoch, dass die heutigen Modelle so groß sind, dass sie nicht auf einer einzelnen GPU laufen können, geschweige denn auf einen einzelnen Server passen“, erklärte Professor Mosharaf Chowdhury gegenüber Live Science.

Um das Ausmaß zu verdeutlichen: Eine Studie von de Vries-Gao aus dem Jahr 2023 zeigte, dass ein Nvidia DGX A100-Server bis zu 6,5 Kilowatt Strom verbrauchen kann. Das Training eines LLM erfordert typischerweise mehrere Server mit jeweils durchschnittlich 8 GPUs, die wochen- oder sogar monatelang ununterbrochen laufen. Insgesamt ist der Stromverbrauch enorm: Allein das Training von OpenAIs GPT-4 verbrauchte 50 Gigawattstunden – genug Strom, um ganz San Francisco drei Tage lang zu versorgen.

Der Trainingsprozess von OpenAI für GPT-4 reichte aus, um ganz San Francisco drei Tage lang mit Strom zu versorgen. (Bild: Jaap Arriens/NurPhoto/Rex/Shutterstock)

Der Trainingsprozess von OpenAI für GPT-4 reichte aus, um ganz San Francisco drei Tage lang mit Strom zu versorgen. (Bild: Jaap Arriens/NurPhoto/Rex/Shutterstock)

Der Inferenzprozess ist ebenfalls sehr energieintensiv. Hierbei nutzt der KI-Chatbot sein erlerntes Wissen, um dem Nutzer Antworten zu geben. Obwohl die Inferenz weniger Rechenressourcen benötigt als die Trainingsphase, ist sie aufgrund der schieren Anzahl der an den Chatbot gesendeten Anfragen dennoch extrem energieintensiv.

OpenAI schätzt, dass ChatGPT-Nutzer bis Juli 2025 täglich über 2,5 Milliarden Anfragen senden werden. Um sofort reagieren zu können, muss das System zahlreiche Server gleichzeitig mobilisieren. Und das betrifft nur ChatGPT allein; andere, ebenfalls immer beliebter werdende Plattformen wie Googles Gemini sind hier noch nicht berücksichtigt. Gemini dürfte bald die Standardeinstellung für die Google-Suche sein.

„Selbst in der Inferenzphase lässt sich nicht wirklich Energie sparen“, bemerkte Chowdhury. „Das Problem ist nicht mehr die riesige Datenmenge. Das Modell ist bereits riesig, aber das größere Problem ist die Anzahl der Nutzer.“

Forscher wie Chowdhury und de Vries-Gao suchen nun nach Möglichkeiten, den Energieverbrauch genauer zu messen und so Lösungen zu dessen Reduzierung zu finden. Chowdhury führt beispielsweise eine Rangliste namens „ML Energy Leaderboard“, die den Energieverbrauch bei den Berechnungen von Open-Source-Modellen erfasst.

Viele Daten zu kommerziell nutzbaren KI-Plattformen bleiben jedoch geheim. Große Konzerne wie Google, Microsoft und Meta halten sie entweder unter Verschluss oder veröffentlichen lediglich sehr vage Statistiken, die die Umweltauswirkungen nicht präzise widerspiegeln. Dadurch ist es äußerst schwierig zu bestimmen, wie viel Strom KI tatsächlich verbraucht, wie hoch der Bedarf in den kommenden Jahren sein wird und ob die Welt diesen decken kann.

Dennoch können Nutzer durchaus Druck für Transparenz ausüben. Dies hilft Einzelpersonen nicht nur dabei, verantwortungsvollere Entscheidungen beim Umgang mit KI zu treffen, sondern trägt auch zur Förderung von Richtlinien bei, die Unternehmen zur Rechenschaft ziehen.

„Eines der Kernprobleme digitaler Anwendungen ist, dass ihre Umweltauswirkungen stets verborgen bleiben“, betonte die Forscherin de Vries-Gao. „Nun liegt es an den politischen Entscheidungsträgern: Sie müssen Datentransparenz fördern, damit die Nutzer handeln können.“

Ngoc Nguyen (Live Science)

Quelle: https://vtcnews.vn/chatbot-ai-co-ngon-dien-nhu-loi-don-ar965919.html


Etikett: KI-Chatbot

Kommentar (0)

Hinterlasse einen Kommentar, um deine Gefühle zu teilen!

Gleiches Thema

Gleiche Kategorie

Gleicher Autor

Erbe

Figur

Unternehmen

Aktuelles

Politisches System

Lokal

Produkt

Happy Vietnam
Mutterliebe

Mutterliebe

Das Idol des Kindes.

Das Idol des Kindes.

Torschütze

Torschütze