ChatGPT is de afgelopen jaren enorm populair geworden, met bijna 200 miljoen gebruikers die dagelijks meer dan een miljard verzoeken indienen. Deze reacties, die ogenschijnlijk "uit het niets" ontstaan, verbruiken achter de schermen een enorme hoeveelheid energie.
In 2023 waren datacenters – waar AI wordt getraind en gebruikt – verantwoordelijk voor 4,4% van het elektriciteitsverbruik in de VS. Wereldwijd lag dit percentage rond de 1,5% van de totale elektriciteitsvraag. Naar verwachting zal het verbruik in 2030 verdubbelen, aangezien de vraag naar AI blijft toenemen.
“Nog maar drie jaar geleden bestond ChatGPT niet eens”, aldus Alex de Vries-Gao, onderzoeker naar de duurzaamheid van nieuwe technologieën aan de Vrije Universiteit Amsterdam en oprichter van Digiconomist, een platform dat de onbedoelde gevolgen van digitale trends analyseert. “En nu hebben we het over een technologie die potentieel verantwoordelijk kan zijn voor bijna de helft van het elektriciteitsverbruik van datacenters wereldwijd .”
Het stellen van een vraag aan een groot taalmodel (LLM) verbruikt ongeveer tien keer zoveel elektriciteit als een doorsnee Google-zoekopdracht. (Afbeelding: Qi Yang/Getty Images)
Waarom verbruiken AI-chatbots zoveel energie? Het antwoord ligt in hun enorme schaal. Volgens Mosharaf Chowdhury, hoogleraar computerwetenschappen aan de Universiteit van Michigan, zijn er twee fasen die bijzonder veel energie verbruiken: het trainingsproces en het inferentieproces.
"Het probleem is echter dat de huidige modellen zo groot zijn dat ze niet op één enkele GPU kunnen draaien, laat staan op één enkele server passen," legde professor Mosharaf Chowdhury uit aan Live Science.
Om de schaal te illustreren: een studie uit 2023 van de Vries-Gao toonde aan dat een Nvidia DGX A100-server tot wel 6,5 kilowatt aan elektriciteit kan verbruiken. Het trainen van een LLM vereist doorgaans meerdere servers, elk met gemiddeld 8 GPU's, die weken of zelfs maandenlang continu draaien. In totaal is het elektriciteitsverbruik enorm: alleen al de GPT-4-training van OpenAI verbruikte 50 gigawattuur, wat overeenkomt met genoeg elektriciteit om heel San Francisco drie dagen van stroom te voorzien.
Het GPT-4-trainingsproces van OpenAI was voldoende om heel San Francisco drie dagen lang van stroom te voorzien. (Afbeelding: Jaap Arriens/NurPhoto/Rex/Shutterstock)
Het inferentieproces is ook behoorlijk energie-intensief. Dit is het moment waarop de AI-chatbot zijn opgedane kennis gebruikt om antwoorden aan de gebruiker te geven. Hoewel inferentie minder rekenkracht vereist dan de trainingsfase, is het nog steeds extreem energieverslindend vanwege het enorme aantal verzoeken dat naar de chatbot wordt gestuurd.
Volgens schattingen van OpenAI versturen ChatGPT-gebruikers in juli 2025 dagelijks meer dan 2,5 miljard verzoeken. Om direct te kunnen reageren, moet het systeem veel servers tegelijkertijd inzetten. En dat is alleen ChatGPT; andere platforms die ook steeds populairder worden, zoals Google Gemini, zijn hierbij niet meegerekend. Naar verwachting zal dit platform binnenkort de standaardkeuze zijn voor gebruikers van Google Search.
"Zelfs in de inferentiefase kun je eigenlijk geen energie besparen," merkte Chowdhury op. "Het probleem is niet langer de enorme hoeveelheid data. Het model is al gigantisch, maar het grootste probleem is het aantal gebruikers."
Onderzoekers zoals Chowdhury en de Vries-Gao zoeken nu naar manieren om energieverbruik nauwkeuriger te meten en zo oplossingen te vinden om het te verminderen. Chowdhury beheert bijvoorbeeld een ranglijst genaamd de ML Energy Leaderboard, die het energieverbruik bijhoudt in de conclusies van open-source modellen.
Veel gegevens over commercieel levensvatbare AI-platforms blijven echter "geheim". Grote bedrijven zoals Google, Microsoft en Meta houden deze gegevens geheim of publiceren slechts zeer vage statistieken die de milieu-impact niet nauwkeurig weergeven. Hierdoor is het erg moeilijk om te bepalen hoeveel elektriciteit AI daadwerkelijk verbruikt, wat de vraag in de komende jaren zal zijn en of de wereld daaraan kan voldoen.
Gebruikers kunnen echter wel degelijk druk uitoefenen voor transparantie. Dit helpt individuen niet alleen om verantwoordere keuzes te maken bij het gebruik van AI, maar draagt ook bij aan het bevorderen van beleid dat bedrijven ter verantwoording roept.
"Een van de kernproblemen met digitale toepassingen is dat hun milieu-impact altijd verborgen blijft", benadrukte onderzoeker de Vries-Gao. "Nu ligt de bal bij de beleidsmakers: zij moeten datatransparantie stimuleren, zodat gebruikers actie kunnen ondernemen."
Ngoc Nguyen (Live Science)
Bron: https://vtcnews.vn/chatbot-ai-co-ngon-dien-nhu-loi-don-ar965919.html






Reactie (0)