Hoeveel energie verbruikt ChatGPT?

Als je op internet gaat zoeken naar antwoorden op de vraag hoeveel energie ChatGPT gebruikt, vind je waarschijnlijk iets als dit:

"ChatGPT gebruikt 10 keer meer elektriciteit dan een Google-zoekopdracht."

Als je het spoor volgt, leidt deze claim naar een IEA-rapport van 170 pagina'swaarin wordt verwezen naar een artikel waarin een waarschijnlijke schatting wordt aangehaald van een voorzitter van Alphabet... gebaseerd op gegevens uit 2009. Jakkes!

In werkelijkheid zijn de nieuwere zoekoperaties van Google ongeveer 10x efficiënter dan in 2009, en het werkelijke energieverbruik van ChatGPT per aanvraag is tegenwoordig veel lager dan die eerste alarmbellen suggereerden.

Nieuwere modellen zoals de GPT-4o hebben grote vooruitgang geboekt op het gebied van efficiëntie, wat betekent dat de algemene cijfers die rondgaan verouderd en eerlijk gezegd een beetje misleidend zijn.

Dus, wat is het echte plaatje? Dat is precies waar we hier in duiken.

Je bevindingen zullen zijn:

  • Wat doet ChatGPT onder de motorkap?
  • Hoeveel energie verbruikt een ChatGPT-zoekopdracht?
  • Hoeveel energie verbruikt het vergeleken met Google Search en andere AI-modellen?
  • Wat doet OpenAI om zijn impact te verminderen?
  • Welke stappen kun je als gebruiker nemen om je AI-gebruik verantwoorder te maken?

Laten we beginnen.

Wat doet ChatGPT?

Mark Russinovich, CTO van Microsoft Azure, gaf ons een kijkje achter de schermen in een podcast dat Microsoft gepubliceerd in 2023

Volgens hem heeft Microsoft een infrastructuur gebouwd waarmee modellen met honderden miljarden parameters kunnen worden getraind. 

GPT-3 had bijvoorbeeld 175 miljard parameters, wat al klinkt als te veel totdat je hoort dat het Megatron-Turing model van Microsoft 530 miljard parameters had.

Maak je nooit meer zorgen dat AI je sms'jes herkent. Undetectable AI Kan je helpen:

  • Laat je AI-ondersteund schrijven verschijnen mensachtig.
  • Omleiding alle grote AI-detectietools met slechts één klik.
  • Gebruik AI veilig en vol vertrouwen op school en op het werk.
GRATIS proberen

Qua hardware heeft de originele 2020 OpenAI supercomputer meer dan 285.000 AMD InfiniBand CPU cores plus 10.000 NVIDIA V100 Tensor Core GPU's samengevoegd. 

De nieuwe H100-serie virtuele machines clustert tot acht NVIDIA H100 Tensor Core GPU's per VM en schaalt uit tot duizenden. 

Kortom, als je je afvraagt wat ChatGPT bezielt, is het antwoord eigenlijk: alles.

Alle cores, alle GPU's, alle netwerkbandbreedte die je ooit in je dromen zou kunnen oppotten.

Geschat energieverbruik van ChatGPT

Nu de echte vraag: hoeveel energie verbruikt ChatGPT per vraag? 

Je zou verwachten dat het apocalyptisch is, alsof het gletsjers doet smelten bij elke prompt die je typt. 

Maar recente schattingen zeggen dat een typische ChatGPT query op GPT-4o ongeveer 0,3 wattuur (Wh) verbruikt. 

Dat is ongeveer tien keer minder dan oudere (en waarschijnlijk onnauwkeurige) schattingen van begin 2023, die uitgingen van 3 wattuur. 

De sprong in efficiëntie is te danken aan betere modellen, scherpere hardware en het besef dat oudere schattingen veel te pessimistisch waren over het aantal tokens.

Op schaal is 0,3 wattuur minder energie dan wat je laptop verbruikt terwijl je je koffie opwarmt. 

Zelfs als je de hele dag zware zoekopdrachten uitvoert, zijn de cijfers over hoeveel energie ChatGPT per dag gebruikt nog steeds tam vergeleken met bijvoorbeeld je AC of gaming PC. Maar dat is alleen je verbruik.

Het aantal gebruikers van OpenAI bedroeg in februari wekelijks meer dan 400 miljoen, afgaande op wat een Een woordvoerder van OpenAI vertelde aan Reuters. Dat zijn dus veel watturen, zelfs als je het efficiënt doet.

Het is belangrijk op te merken dat dit cijfer van 0,3 wattuur nog wat aan de voorzichtige kant is. 

Veel alledaagse vragen zijn waarschijnlijk goedkoper dan dat.

Maar queries met grote hoeveelheden invoer, uitgebreide uitvoer of zware redeneermodellen kunnen het verbruik nog steeds veel hoger maken.

Energieverbruik: GPT-4 vs GPT-3.5

Hoewel GPT-3.5 is afgeschaft, is de erfenis ervan nog steeds aanwezig, vooral als we het hebben over hoeveel energie ChatGPT gebruikt in verschillende versies.

Dit is wat de gegevens zeggen over het energieverbruik in vergelijking met GPT-4.

Voor een GPT-3 model met ongeveer 175 miljard parameters waren de emissies al hoog, maar de overgang naar een GPT-4 model met zijn zwaardere architectuur zou de emissies ongeveer 200 keer hoger kunnen maken. 

Volgens George HotzGPT-4 is acht aan elkaar genaaide exemplaren van een 220B-parameter GPT-3-achtig model. 

Maar wat belangrijk is, is dat slechts twee van deze modellen daadwerkelijk gerouteerd worden tijdens inferentie, wat betekent dat de echte actie gebeurt met ongeveer 280B effectieve parameters als je rekening houdt met het delen van enkele parameters (~55B voor aandachtsmechanismen).

Vergelijk dat met GPT-3.5's 175B setup en je begint te begrijpen waarom GPT-4's inferentiekosten tot drie keer hoger liggen. 

De groei in energieverbruik overtreft de loutere stijging in het aantal parameters, die slechts een 1,6x stijging zou moeten voorstellen. 

Maar dat is niet gebeurd omdat GPT-4's query's gewoon veel duurder zijn. 

De koolstofvoetafdruk van AI-modellen

Het draaien van grote AI-modellen is niet goedkoop, niet voor de planeet en niet voor de energierekening.

Deze modellen vereisen serieuze rekenkracht, wat veel elektriciteit betekent en, in veel gevallen, veel uitstoot.

GPT-3 had bijvoorbeeld naar verluidt ongeveer 1.287 MWh elektriciteit nodig om te trainen, produceren meer dan 50 pond CO2.

Nieuwere modellen zoals de GPT-4o zijn nog groter, maar OpenAI heeft de exacte voetafdruk nog niet vrijgegeven.

Naast OpenAI's ChatGPT heb je Meta's AI assistent, die waarschijnlijk draait op Llama 3.2 modellen (11B of 90B parameters).

Ook hier zijn geen exacte cijfers van CO2-uitstoot beschikbaar.

Anthropic's Claude 3.5 Sonnet weegt veel zwaarder en wordt geschat op ongeveer 400 miljard parameters zonder dat de exacte CO2-voetafdruk bekend wordt gemaakt.

En Google's Gemini? Aangedreven door de varianten "Flash" en "Pro", hoewel Google geen exacte parameternummers heeft onthuld.

We kunnen nog steeds afleiden dat ze in dezelfde buurt liggen als GPT-4o of zijn minivarianten.

En over gestroomlijnde modellen gesproken, DeepSeek-V3 is hier met slechts 37 miljard actieve parameters (op een totaal van 671B). 

De R1-redeneringsvariant laat sterke prestaties zien, terwijl er per token meer energie wordt verbruikt dan bij GPT-4o. 

Hoe verhoudt ChatGPT zich tot andere tools?

Op dit punt zou je moeten weten dat hoeveel energie ChatGPT gebruikt afhangt van de versie waarmee je communiceert, de lengte van de prompts en het mechanisme onder de motorkap. 

Vergeleken met het grotere universum van AI-tools is ChatGPT ongeveer gemiddeld wat betreft energieverbruik, vooral voor high-end modellen. 

Maar als het aankomt op puur marktaandeel en gebruiksfrequentie, vertaalt zelfs "gemiddeld" zich in een enorme energievoetafdruk op schaal.

Energieverbruik vs Google Zoeken

Terug in 2009, Google schatte de energiekosten van een enkele zoekopdracht 0,3 Wh.

We spoelen door naar 2024 en die schatting is niet meer actueel.

Het blijkt dat de huidige Google-zoekopdrachten ongeveer 10x minder energie verbruiken dan die eerste schattingen. 

Ondertussen waren eerdere energieschattingen voor een gemiddeld LLM-verzoek, inclusief ChatGPT ook ongeveer 10x te hoog (2,9 Wh).

Met het nieuwste onderzoek dat de energieverbruik van Google op 0,04 Wh en ChatGPT op 0,3 Wh, deze twee fouten heffen elkaar op, wat betekent dat de oude "LLM's gebruiken ongeveer 10x meer energie per zoekopdracht dan Google Search" nog steeds opgaat... maar alleen omdat iedereen het op precies de juiste manier mis had. 

Wat doet OpenAI om de impact te beperken?

OpenAI is zich er volledig van bewust dat het trainen en uitvoeren van modellen zoals ChatGPT aanzienlijk sneller energie verbruikt. 

Dat brengt ons bij de vraag: wat wordt eraan gedaan?

Ten eerste heeft OpenAI efficiëntie-upgrades doorgevoerd. 

Na verloop van tijd zijn nieuwere modellen, zoals GPT-4o en nu GPT-4.1zijn specifiek geoptimaliseerd voor een aanzienlijk lager energieverbruik tijdens inferentie. 

Vooruitgang in modelarchitectuur, tokenverwerking en hardwareverbeteringen op serverniveau betekenen dat vandaag de dag de hoeveelheid energie die een ChatGPT query gebruikt al veel lager is dan het zelfs een jaar geleden zou zijn geweest voor dezelfde taak.

OpenAI werkt ook samen met Microsoft Azure, en Azure heeft toegezegd zijn datacenters tegen 2025 te laten draaien op 100% hernieuwbare energie.

Dat is belangrijk omdat wanneer je query's naar ChatGPT gooit, je Azure supercomputers aan het pingen bent waar we het eerder over hadden. 

Door de energiebron te verschuiven van fossiele brandstoffen naar hernieuwbare energiebronnen daalt niet direct het wattage dat een query verbruikt, maar wordt de koolstofvoetafdruk die ermee gepaard gaat wel radicaal kleiner.

Naast de infrastructuur gebeurt er nog meer voor de toekomst. OpenAI doet actief onderzoek naar manieren om modellen kleiner te maken zonder dat dit ten koste gaat van de prestaties.

Modelcompressie, distillatie en slimmere routering (zoals dynamische tokenverwerking) zijn allemaal zeer actuele onderwerpen in kringen van AI-efficiëntie. 

Wat kun je doen als gebruiker?

Terwijl OpenAI de grote structurele verschuivingen voor zijn rekening neemt, hebben gebruikers nog steeds een rol te spelen in het minimaliseren van afval en het verantwoorde gebruik van ChatGPT. 

Dit is wat je kunt doen:

  • Wees beknopt: Omlijst je vragen duidelijk en strak. Elke extra verwerkte token kost een beetje energie.
  • Vermijd het spammen van prompts: Weersta de verleiding om 15 lichtjes anders geformuleerde versies van dezelfde vraag in te sturen.
  • Gebruik geschikte modellen: Kies waar mogelijk lichtere, goedkopere modellen (zoals GPT-4o-mini, indien aangeboden) voor casual of lichte taken.
  • Verzamel je aanvragen: In plaats van een heleboel gefragmenteerde vragen, kun je ze samenvoegen tot één goed doordachte vraag.

Als je wilt besparen op eindeloze re-prompts en re-generaties, is het slim om speciale tools te gebruiken die vanaf de eerste paar pogingen schonere inhoud genereren die klaar is voor publicatie.

Dit is waar Niet detecteerbare AI hulpmiddelen zoals Stealth schrijver of Parafraser binnenkomen. 

In plaats van ChatGPT te vragen om die perfecte versie van je tekst door middel van meerdere bewerkingen en herhalingen (die elk meer energie kosten), kun je gewoon onze gespecialiseerde tools gebruiken die gebouwd zijn voor precisie. 

Gereedschap dat is ontworpen voor specifieke acties presteert over het algemeen efficiënter en al ons gereedschap past precies in dit model van slim, energiebewust gebruik. 

Met andere woorden, schonere uitvoer in minder pogingen = minder energieverbranding = tevredener servers = u redt de wereld, één knapperige alinea per keer.

Klaar om het verschil te zien? Start onze AI Detector en Humanizer in de widget hieronder!

FAQ's: ChatGPT en energieverbruik

Hoeveel energie verbruikt één ChatGPT-verzoek?

Een typische ChatGPT-query, vooral wanneer GPT-4o wordt gebruikt, verbruikt ongeveer 0,3 wattuur.

Dit is gebaseerd op nieuwere en nauwkeurigere schattingen die verbeteringen in hardware-efficiëntie en modelarchitectuur weerspiegelen. 

Eerdere schattingen waren ongeveer 3 wattuur per vraag, maar die cijfers waren gebaseerd op oudere technologie en aannames.

Dus, hoeveel energie verbruikt een ChatGPT-verzoek vandaag de dag veel minder dan vroeger.

Is trainen energie-intensiever dan gebruiken?

Ja, absoluut. Het trainen van een model als ChatGPT gebruikt een enorme hoeveelheid energie, veel meer dan het uitvoeren van dagelijkse queries.

Bij training worden enorme datasets verwerkt gedurende weken of maanden op duizenden GPU's, wat resulteert in een zeer grote koolstofvoetafdruk vooraf.

Daarentegen verbruikt het gebruik van het model (inferentie) relatief weinig energie per verzoek.

Publiceert OpenAI duurzaamheidsgegevens?

Nee, OpenAI publiceert momenteel geen gedetailleerde openbare duurzaamheidsrapporten of volledige statistieken over energieverbruik.

Terwijl ze nauw samenwerken met Microsoft Azure, dat zijn eigen duurzaamheidsdoelen en -rapporten heeft, heeft OpenAI zelf geen uitgebreide openbaarmakingen gedaan over het energieverbruik of de CO2-voetafdruk van zijn modellen.

Laatste gedachten: De energiekosten van AI

Concluderend, hoeveel energie verbruikt ChatGPT sterk afhankelijk van welk model je gebruikt en hoe je het gebruikt. 

Maar over het algemeen is het duidelijk dat nieuwere modellen efficiënter worden en dat de industrie zich echt inspant om de impact op het milieu te verminderen.

Toch kan het kiezen van de juiste tool voor de juiste taak een belangrijk verschil maken in je digitale voetafdruk. 

Slimmere workflows, minder herhalingen en duidelijkere aanwijzingen zorgen allemaal voor een lager energieverbruik. 

En als je ChatGPT combineert met speciaal ontwikkelde tools zoals Undetectable AI, krijg je het beste van twee werelden.

Je genereert schone, gepolijste en publiceerbare inhoud met minder trial-and-error. Dat betekent tijd en rekenkracht besparen, en ja, ook een beetje van de planeet.

Als je slimmer en groener wilt werken, meld u vandaag nog aan voor Undetectable AI.

Undetectable AI (TM)