Vietnam.vn - Nền tảng quảng bá Việt Nam

Förbrukar AI-chatbotar lika mycket el som ryktena säger?

AI-chattrobotar blomstrar med hundratals miljoner dagliga användare, men bakom den bekvämligheten ligger en enorm strömförbrukning, vilket väcker oro kring hållbarhet.

VTC NewsVTC News19/09/2025

Bara under de senaste åren har ChatGPT exploderat i popularitet, med nästan 200 miljoner användare som skickar in över en miljard förfrågningar varje dag. Dessa svar, som till synes bearbetas "ur tomma intet", förbrukar faktiskt en enorm mängd energi bakom kulisserna.

År 2023 stod datacenter – där AI tränas och drivs – för 4,4 % av elförbrukningen i USA. Globalt sett låg denna siffra på cirka 1,5 % av den totala elefterfrågan. Det förväntas att förbrukningen kommer att fördubblas till 2030 i takt med att efterfrågan på AI fortsätter att öka.

”För bara tre år sedan hade vi inte ens ChatGPT”, säger Alex de Vries-Gao, forskare inom hållbarhet hos nya tekniker vid Vrije University Amsterdam och grundare av Digiconomist, en plattform som analyserar de oavsiktliga konsekvenserna av digitala trender. ”Och nu pratar vi om en teknik som potentiellt skulle kunna stå för nästan hälften av den el som förbrukas av datacenter världen över .”

Att ställa en fråga till en stor språkmodell (LLM) förbrukar ungefär 10 gånger mer el än en typisk Google-sökning. (Bild: Qi Yang/Getty Images)

Att ställa en fråga till en stor språkmodell (LLM) förbrukar ungefär 10 gånger mer el än en typisk Google-sökning. (Bild: Qi Yang/Getty Images)

Vad gör AI-chattrobotar så energikrävande? Svaret ligger i deras enorma skala. Enligt datavetenskapsprofessorn Mosharaf Chowdhury vid University of Michigan finns det två särskilt maktkrävande faser: träningsprocessen och inferensprocessen.

"Problemet är dock att dagens modeller är så stora att de inte kan köras på en enda GPU, än mindre få plats i en enda server", förklarade professor Mosharaf Chowdhury för WordsSideKick.com.

För att illustrera skalan visade en studie från 2023 av de Vries-Gao att en Nvidia DGX A100-server kan förbruka upp till 6,5 kilowatt el. Att träna en LLM kräver vanligtvis flera servrar, var och en med i genomsnitt 8 GPU:er, som körs kontinuerligt i veckor eller till och med månader. Totalt är elförbrukningen enorm: enbart OpenAI:s GPT-4-träning förbrukade 50 gigawattimmar, vilket motsvarar tillräckligt med el för att driva hela San Francisco i tre dagar.

OpenAI:s GPT-4-träningsprocess räckte för att förse hela San Francisco med ström i tre dagar. (Bild: Jaap Arriens/NurPhoto/Rex/Shutterstock)

OpenAI:s GPT-4-träningsprocess räckte för att förse hela San Francisco med ström i tre dagar. (Bild: Jaap Arriens/NurPhoto/Rex/Shutterstock)

Inferensprocessen är också ganska energikrävande. Det är då AI-chatboten använder sin inlärda kunskap för att ge svar till användaren. Även om inferens kräver färre beräkningsresurser än träningsfasen, är den fortfarande extremt energikrävande på grund av den stora mängden förfrågningar som skickas till chatboten.

I juli 2025 uppskattar OpenAI att ChatGPT-användare skickar över 2,5 miljarder förfrågningar dagligen. För att svara direkt måste systemet mobilisera många servrar som arbetar samtidigt. Och det är bara ChatGPT; det inkluderar inte andra plattformar som också blir alltmer populära, såsom Googles Gemini, som snart förväntas bli standardvalet när användare använder Google-sökning.

"Inte ens i inferensfasen kan man egentligen spara energi", konstaterade Chowdhury. "Problemet är inte längre den enorma mängden data. Modellen är redan enorm, men det större problemet är antalet användare."

Forskare som Chowdhury och de Vries-Gao letar nu efter sätt att mer exakt mäta energiförbrukningen och därigenom hitta lösningar för att minska den. Till exempel har Chowdhury en topplista som heter ML Energy Leaderboard, som spårar energiförbrukningen i slutsatser från modeller med öppen källkod.

Mycket av informationen relaterad till kommersiellt gångbara AI-plattformar förblir dock "hemlig". Stora företag som Google, Microsoft och Meta antingen håller den konfidentiell eller släpper bara mycket vag statistik som inte korrekt återspeglar miljöpåverkan. Detta gör det mycket svårt att avgöra hur mycket el AI faktiskt förbrukar, vad efterfrågan kommer att bli under de kommande åren och om världen kan möta den.

Användare kan dock definitivt utöva påtryckningar för transparens. Detta hjälper inte bara individer att göra mer ansvarsfulla val när de använder AI, utan bidrar också till att främja policyer som håller företag ansvariga.

”Ett av kärnproblemen med digitala applikationer är att deras miljöpåverkan alltid är dold”, betonade forskaren de Vries-Gao. ”Nu ligger bollen i händerna på beslutsfattarna: de måste uppmuntra datatransparens så att användarna kan agera.”

Ngoc Nguyen (Live Science)

Källa: https://vtcnews.vn/chatbot-ai-co-ngon-dien-nhu-loi-don-ar965919.html


Kommentar (0)

Lämna en kommentar för att dela dina känslor!

I samma ämne

I samma kategori

Av samma författare

Arv

Figur

Företag

Aktuella frågor

Politiskt system

Lokal

Produkt

Happy Vietnam
Möt upp på destinationen.

Möt upp på destinationen.

HAND I HAND ÖVERVINNER VI ALLA VÄG.

HAND I HAND ÖVERVINNER VI ALLA VÄG.

Utforska allt med ditt barn.

Utforska allt med ditt barn.