Waarom verbruiken AI-chatbots als ChatGPT zoveel energie?

AI-chatbots zijn beruchte energievreters. Maar waarom gebruiken ze zoveel elektriciteit?

De afgelopen jaren is ChatGPT geëxplodeerd in populariteit, met bijna 200 miljoen gebruikers die dagelijks in totaal meer dan een miljard prompts in de app pompen. Maar achter de schermen gebruiken AI-chatbots een enorme hoeveelheid energie. In 2023 waren datacenters, die worden gebruikt om AI te trainen en te verwerken, verantwoordelijk voor 4,4 procent van het elektriciteitsverbruik in de Verenigde Staten. Wereldwijd zijn deze centra goed voor zo’n 1,5 procent van het wereldwijde energieverbruik. Deze aantallen zullen naar verwachting explosief stijgen, ten minste verdubbelen in 2030 naarmate de vraag naar AI groeit.

“Drie jaar geleden hadden we nog niet eens ChatGPT”, zei Alex de Vries-Gao, onderzoeker duurzaamheid van opkomende technologie aan de Vrije Universiteit Amsterdam en oprichter van Digiconomist, een platform dat zich richt op het blootleggen van de onbedoelde gevolgen van digitale trends. “En nu hebben we het over een technologie die verantwoordelijk zal zijn voor bijna de helft van het elektriciteitsverbruik van datacenters wereldwijd.”

Maar wat maakt AI-chatbots zo energie-intensief? Het antwoord ligt in de enorme schaal van AI-chatbots. Er zijn met name twee onderdelen van AI die de meeste energie verbruiken: training en inferentie, aldus Mosharaf Chowdhury, een computerwetenschapper aan de Universiteit van Michigan.

Om AI-chatbots te trainen, krijgen grote taalmodellen (LLM’s) enorme datasets, zodat de AI kan leren, patronen kan herkennen en voorspellingen kan doen. Over het algemeen gelooft de Vries-Gao dat “groter beter is” bij AI-training, waarbij grotere modellen die meer gegevens verwerken betere voorspellingen doen.

“Als je een training probeert uit te voeren, zijn de modellen tegenwoordig zo groot dat ze niet in één GPU (grafische kaart) passen en zelfs niet op één server”, vertelde Chowdhury aan Live Science.

Om een idee te geven van de schaal, onderzoek van de Vries-Gao uit 2023 berekend dat een enkele Nvidia DGX A100-server tot 6,5 kilowatt aan stroom verbruikt. Voor het trainen van een LLM zijn meestal meerdere servers nodig, elk met gemiddeld acht GPU’s, die dan weken of maanden draaien. Alles bij elkaar verbruikt dit bergen energie: naar schatting heeft het trainen van OpenAI’s GPT-4 50 gigawattuur aan energie verbruikt, wat gelijk staat aan drie dagen lang San Francisco van stroom voorzien.

Inferentie verbruikt ook veel energie. Hierbij trekt een AI-chatbot een conclusie uit wat hij heeft geleerd en genereert hij een output op basis van een verzoek. Hoewel er aanzienlijk minder rekenkracht nodig is om een LLM uit te voeren nadat deze is getraind, is inferentie energie-intensief vanwege het grote aantal verzoeken aan AI-chatbots.

In juli 2025 verklaarde OpenAI dat gebruikers van ChatGPT meer dan 2,5 miljard verzoeken per dag verzenden, wat betekent dat er meerdere servers worden gebruikt om onmiddellijke antwoorden op deze verzoeken te geven. Dan hebben we het nog niet eens over de andere chatbots die op grote schaal worden gebruikt, waaronder Googles Gemini, waarvan vertegenwoordigers zeggen dat het binnenkort de standaardoptie wordt wanneer gebruikers Google Search gebruiken.

“Dus zelfs bij inferentie kun je niet echt energie besparen”, zei Chowdhury. “Het gaat niet echt om enorme hoeveelheden gegevens. Ik bedoel, het model is al gigantisch, maar we hebben een enorm aantal mensen die het gebruiken.”

Onderzoekers zoals Chowdhury en de Vries-Gao werken nu aan een betere kwantificering van deze energiebehoeften om te begrijpen hoe ze kunnen worden verminderd. Chowdhury houdt bijvoorbeeld een ML Energy Leaderboard bij, waarin het energieverbruik van inferenties van open source-modellen wordt bijgehouden.

De specifieke energiebehoeften van de andere generatieve AI-platforms zijn echter meestal onbekend; grote bedrijven zoals Google, Microsoft en Meta houden deze cijfers privé of verstrekken statistieken die weinig inzicht geven in de werkelijke impact van deze toepassingen op het milieu, aldus de Vries-Gao. Dit maakt het moeilijk om te bepalen hoeveel energie AI werkelijk verbruikt, wat de vraag naar energie de komende jaren zal zijn en of de wereld het kan bijbenen.

Mensen die deze chatbots gebruiken, kunnen echter aandringen op meer transparantie. Dit kan gebruikers niet alleen helpen bij het maken van meer energieverantwoorde keuzes bij hun eigen AI-gebruik, maar ook aandringen op een robuuster beleid dat bedrijven verantwoordelijk houdt.

“Een zeer fundamenteel probleem met digitale toepassingen is dat de impact nooit transparant is”, aldus de Vries-Gao. “De bal ligt bij beleidsmakers om openbaarmaking aan te moedigen, zodat gebruikers iets kunnen gaan doen.”

© Live Science from Future Media

Meer
Lees meer...