Het energieverbruik van AI is vergelijkbaar met dat van Zwitserland of Oostenrijk, blijkt uit nieuw onderzoek van de Vrije Universiteit Amsterdam.

Terwijl technologiebedrijven de ene na de andere AI-toepassing lanceren en de zoekmachine van Google zijn resultaten tegenwoordig vergezeld doet gaan van door AI geschreven suggesties, slurpen de datacenters waar de zelflerende algoritmen hun werk doen energie en water.

Zowel Google als Microsoft meldden in hun milieurapportage van 2024 een forse toename in stroomverbruik en CO2-uitstoot, en schreven dit toe aan de opkomst van AI. Maar in de hoeveelheid stroom die specifiek voor AI wordt gebruikt, geven de grote technologiebedrijven nauwelijks inzicht. Meldde Google in 2022 nog dat AI 10 tot 15 procent van het totale energieverbruik van het bedrijf voor zijn rekening nam, tegenwoordig vindt het bedrijf het ‘niet zinvol’ om onderscheid te maken tussen AI-gerelateerd en overig energieverbruik. 

Voor Alex de Vries-Gao, data- en milieuwetenschapper aan de Vrije Universiteit Amsterdam, was dit reden om zelf maar eens aan het rekenen te slaan. Hij richtte zich hierbij niet op de trainingsfase van de AI-modellen, die bedrijven volgens de Europese AI Act verplicht zijn zelf te rapporteren, maar op het gebruik in de praktijk. Op 22 mei verscheen zijn analyse in het wetenschappelijke tijdschrift Joule.

Indirecte schatting

De Vries-Gao gebruikt een indirecte methode: hij doet zijn schattingen aan de hand van de wereldwijde productiecapaciteit van de chips die nodig zijn voor de grafische kaarten waar veel AI-modellen op draaien. Omdat het aanbod daarvan de vraag nauwelijks kan bijbenen, lijkt dit een goede maat te zijn voor het gebruik van AI, en dus ook van de hoeveelheid energie die dit kost.

‘Daarbij ga ik ervan uit dat 55 tot 75 procent van de capaciteit van de systemen waarin deze grafische kaarten terecht komen daadwerkelijk wordt gebruikt’, zegt De Vries-Gao. Als het huidige energieverbruik de rest van het jaar constant zou blijven, zou AI in 2025 wereldwijd tussen de 64 en 102 terawattuur opsouperen, volgens deze berekeningen (1 terawattuur is een miljard kilowattuur). Dat is meer dan het verbruik van landen als Zwitserland of Oostenrijk.

Met de verwachte groei van het gebruik van AI in de rest van het jaar, kan dit getal dit jaar oplopen tot maximaal 200 terawattuur – pakweg twee keer het energieverbruik van Nederland. Dit maakt AI tot één van de grootste energieverbruikers in de digitale infrastructuur wereldwijd. De algoritmen achter AI vergen dan ook veel rekenkracht. Eén zoekvraag stellen aan ChatGPT kost evenveel stroom als tien zoekopdrachten aan een ‘klassieke’ zoekmachine als Google.

Is het een goed idee beleefd te zijn tegen AI-modellen? Energietechnisch gezien in elk geval niet, zoals Sam Altman, de topman van OpenAI onlangs antwoordde op een vraag van iemand op X. De vriendelijke ‘dankjewel’-prompts waarmee gebruikers hun sessie afsluiten levert het bedrijf misschien wel miljoenen dollars aan extra elektriciteitskosten op, opperde hij.

Totaal datacenters

Het totale energieverbruik van datacenters in 2024 was 415 terawattuur, grofweg 1,5 procent van het wereldwijde energieverbruik, schreef de International Energy Agency in april. De helft hiervan gaat op aan de crypto. Over vijf jaar is het totaal van de datacenters naar verwachting opgelopen tot bijna 1000 terawattuur, terwijl het verwachte energieverbruik van AI in die tijd met een factor vier omhoog gaat. 

Foto's: Depositphotos