Bare i løpet av de siste årene har ChatGPT eksplodert i popularitet, med nesten 200 millioner brukere som legger inn over en milliard forespørsler hver dag. Disse svarene, som tilsynelatende behandles «ut av løse luften», bruker faktisk en enorm mengde energi bak kulissene.
I 2023 sto datasentre – der AI trenes og drives – for 4,4 % av strømforbruket i USA. Globalt var dette tallet rundt 1,5 % av den totale strømbehovet. Det er anslått at forbruket vil dobles innen 2030 ettersom etterspørselen etter AI fortsetter å eskalere.
«For bare tre år siden hadde vi ikke engang ChatGPT», sa Alex de Vries-Gao, forsker på bærekraft i nye teknologier ved Vrije University Amsterdam og grunnlegger av Digiconomist, en plattform som analyserer de utilsiktede konsekvensene av digitale trender. «Og nå snakker vi om en teknologi som potensielt kan stå for nesten halvparten av strømmen som forbrukes av datasentre over hele verden .»
Å stille et spørsmål til en stor språkmodell (LLM) bruker omtrent 10 ganger mer strøm enn et typisk Google-søk. (Bilde: Qi Yang/Getty Images)
Hva gjør AI-chatboter så energikrevende? Svaret ligger i deres enorme skala. Ifølge informatikkprofessor Mosharaf Chowdhury ved University of Michigan er det to spesielt maktkrevende faser: treningsprosessen og inferensprosessen.
«Problemet er imidlertid at dagens modeller er så store at de ikke kan kjøre på en enkelt GPU, langt mindre få plass til en enkelt server», forklarte professor Mosharaf Chowdhury til WordsSideKick.com.
For å illustrere omfanget viste en studie fra 2023 av de Vries-Gao at en Nvidia DGX A100-server kan forbruke opptil 6,5 kilowatt strøm. Å trene en LLM krever vanligvis flere servere, hver med et gjennomsnitt på 8 GPU-er, som kjører kontinuerlig i uker eller til og med måneder. Totalt er strømforbruket enormt: OpenAIs GPT-4-trening alene forbrukte 50 gigawattimer, tilsvarende nok strøm til å forsyne hele San Francisco med strøm i tre dager.
OpenAIs GPT-4-opplæringsprosess var tilstrekkelig til å forsyne hele San Francisco med strøm i tre dager. (Bilde: Jaap Arriens/NurPhoto/Rex/Shutterstock)
Inferensprosessen er også ganske energikrevende. Det er når AI-chatboten bruker sin lærte kunnskap til å gi svar til brukeren. Selv om inferens krever færre beregningsressurser enn treningsfasen, er den fortsatt ekstremt strømkrevende på grunn av det store volumet av forespørsler som sendes til chatboten.
Per juli 2025 anslår OpenAI at ChatGPT-brukere sender over 2,5 milliarder forespørsler daglig. For å svare umiddelbart må systemet mobilisere mange servere som opererer samtidig. Og det er bare ChatGPT alene; det inkluderer ikke andre plattformer som også blir stadig mer populære, som Googles Gemini, som snart forventes å bli standardvalget når brukere åpner Google Søk.
«Selv i inferensfasen kan man ikke egentlig spare energi», observerte Chowdhury. «Problemet er ikke lenger den enorme mengden data. Modellen er allerede enorm, men det større problemet er antallet brukere.»
Forskere som Chowdhury og de Vries-Gao ser nå etter måter å måle energiforbruket mer nøyaktig, og dermed finne løsninger for å redusere det. For eksempel har Chowdhury en ledertavle kalt ML Energy Leaderboard, som sporer energiforbruket i slutninger fra modeller med åpen kildekode.
Mye av dataene knyttet til kommersielt levedyktige AI-plattformer forblir imidlertid «hemmelige». Store selskaper som Google, Microsoft og Meta holder dem enten konfidensielle eller publiserer bare svært vag statistikk som ikke nøyaktig gjenspeiler miljøpåvirkningen. Dette gjør det svært vanskelig å fastslå hvor mye strøm AI faktisk forbruker, hva etterspørselen vil være i de kommende årene, og om verden kan møte den.
Likevel kan brukere absolutt legge press på for åpenhet. Dette hjelper ikke bare enkeltpersoner med å ta mer ansvarlige valg når de bruker AI, men bidrar også til å fremme retningslinjer som holder bedrifter ansvarlige.
«Et av kjerneproblemene med digitale applikasjoner er at miljøpåvirkningen deres alltid er skjult», understreket forsker de Vries-Gao. «Nå ligger ballen i hendene på beslutningstakerne: de må oppmuntre til datatransparens slik at brukerne kan iverksette tiltak.»
Ngoc Nguyen (Live Science)
Kilde: https://vtcnews.vn/chatbot-ai-co-ngon-dien-nhu-loi-don-ar965919.html






Kommentar (0)