Om du gräver runt på internet efter svar på hur mycket energi ChatGPT använder, kommer du förmodligen att hitta något liknande detta:
"ChatGPT använder 10 gånger mer el än en Google-sökning."
Om du följer spåret leder denna inmutning till en 170-sidig IEA-rapport, som länkar till ett dokument som citerar en sannolik uppskattning från en Alphabet-ordförande ... baserat på data från 2009. Jösses!
I själva verket är Googles nyare sökverksamhet ungefär 10 gånger effektivare än 2009, och ChatGPT:s faktiska energianvändning per förfrågan är idag mycket lägre än vad de tidiga larmklockorna antydde.
Nyare modeller som GPT-4o har gjort stora framsteg när det gäller effektivitet, vilket innebär att de siffror som cirkulerar är föråldrade och, ärligt talat, lite missvisande.
Så, vad är den verkliga bilden? Det är precis vad vi dyker in i här.
Det kommer du att ta med dig:
- Vad driver ChatGPT under huven?
- Hur mycket energi går det åt till en ChatGPT-sökning?
- Hur mycket energi förbrukar den jämfört med Google Search och andra AI-modeller?
- Vad gör OpenAI för att minska sin påverkan?
- Vilka åtgärder kan du som användare vidta för att göra din AI-användning mer ansvarsfull?
Låt oss komma in på det.
Vilka befogenheter ChatGPT?
Mark Russinovich, CTO för Microsoft Azure, gav oss en titt bakom kulisserna i en podcast att Microsoft publicerad 2023.
Enligt honom har Microsoft byggt upp en infrastruktur som kan träna modeller med hundratals miljarder parametrar.
GPT-3 hade t.ex. 175 miljarder parametrar, vilket redan låter som för många tills man hör att Microsofts Megatron-Turing-modell hade 530 miljarder.
Oroa dig aldrig för att AI upptäcker dina texter igen. Undetectable AI Kan hjälpa dig:
- Få din AI-assisterade skrivning att synas människoliknande.
- Bypass alla större AI-detekteringsverktyg med bara ett klick.
- Användning AI säkert och självsäkert i skolan och på jobbet.
Hårdvarumässigt sammanfogade den ursprungliga OpenAI-superdatorn 2020 över 285 000 AMD InfiniBand-anslutna CPU-kärnor plus 10 000 NVIDIA V100 Tensor Core GPU:er.
Den nya virtuella maskinserien H100 klustrar upp till åtta NVIDIA H100 Tensor Core GPU:er per virtuell maskin och kan skalas upp till tusentals.
Kort sagt, om du undrar vad som driver ChatGPT är svaret i princip: allt.
Alla kärnor, alla GPU:er, all nätverksbandbredd du någonsin kan samla på dig i dina drömmar.
Beräknad energianvändning för ChatGPT
Nu till den verkliga frågan: hur mycket energi använder ChatGPT per fråga?
Du kanske förväntar dig att det ska vara apokalyptiskt, som att det smälter glaciärer med varje prompt du skriver.
Men enligt nya beräkningar går en typisk ChatGPT-fråga på GPT-4o faktiskt på cirka 0,3 wattimmar (Wh).
Det är ungefär tio gånger mindre än äldre (och sannolikt felaktiga) uppskattningar från början av 2023 som angav den till 3 wattimmar.
Den ökade effektiviteten beror på bättre modeller, vassare hårdvara och insikten att äldre uppskattningar var alldeles för pessimistiska när det gällde antalet token.
I en skala är 0,3 wattimmar mindre energi än vad din bärbara dator förbrukar medan du värmer upp ditt kaffe.
Även om du gör tunga förfrågningar hela dagen är siffrorna för hur mycket energi ChatGPT använder per dag fortfarande ganska låga jämfört med att till exempel köra din AC eller speldator. Men det är bara din användning.
OpenAI:s användarbas uppgick till över 400 miljoner varje vecka i februari, enligt vad en OpenAI:s talesperson sa till Reuters. Så det blir många watt-timmar även om man är effektiv.
Det är viktigt att notera att denna siffra på 0,3 wattimmar fortfarande är lite väl försiktig.
Många vardagliga frågor är förmodligen billigare än så.
Men frågor som omfattar stora mängder indata, omfattande utdata eller avancerade resonemangsmodeller kan fortfarande driva upp förbrukningen mycket högre.
Energianvändning: GPT-4 jämfört med GPT-3.5
Även om GPT-3.5 har tagits ur bruk finns dess arv fortfarande kvar, särskilt när vi diskuterar hur mycket energi ChatGPT använder i olika versioner.
Här är vad uppgifterna säger om dess energianvändning jämfört med GPT-4.
För en modell av GPT-3-typ med cirka 175 miljarder parametrar var utsläppen redan intensiva, men att gå över till en modell av GPT-4-typ med dess tyngre arkitektur skulle kunna öka utsläppen med cirka 200 gånger.
Enligt George HotzGPT-4 är åtta exemplar av en GPT-3-liknande modell med 220B-parameter som sytts ihop.
Men viktigare är att endast två av dessa modeller faktiskt dirigeras under inferens, vilket innebär att den verkliga åtgärden sker med cirka 280B effektiva parametrar när du redogör för viss parameterdelning (~ 55B för uppmärksamhetsmekanismer).
Jämför det med GPT-3.5:s 175B-installation, så börjar du förstå varför GPT-4:s inferenskostnader är upp till tre gånger högre.
Ökningen av energianvändningen är större än ökningen av antalet parametrar, som bara skulle ha gett en ökning på 1,6x.
Men det var inte vad som hände eftersom GPT-4:s frågor helt enkelt är mycket dyrare.
AI-modellernas koldioxidavtryck
Att köra stora AI-modeller är inte billigt, vare sig för planeten eller elräkningen.
Dessa modeller kräver rejäla datormuskler, vilket innebär mycket el och i många fall även mycket utsläpp.
Exempelvis krävde GPT-3 enligt uppgift cirka 1.287 MWh el för att träna, släpper ut mer än 50 kilo CO2.
Nyare modeller som GPT-4o är ännu större, men OpenAI har inte släppt deras exakta fotavtryck.
Utöver OpenAI:s ChatGPT har du Metas AI-assistent, som sannolikt körs på Llama 3.2-modeller (antingen 11B- eller 90B-parametrar).
Inte heller här finns några exakta siffror på CO2-utsläppen.
Anthropics Claude 3.5 Sonnet väger mycket tyngre, uppskattat till cirka 400 miljarder parametrar utan att avslöja sitt exakta koldioxidavtryck.
Och Googles Gemini? Drivs av varianterna "Flash" och "Pro", även om Google inte har avslöjat exakta parameternummer.
Vi kan ändå dra slutsatsen att de är i samma storleksordning som GPT-4o eller dess minivarianter.
Och på tal om strömlinjeformade modeller, DeepSeek-V3 är här ute och flexar med bara 37 miljarder aktiva parametrar (av totalt 671B).
Dess R1-resonemangsvariant visar stark prestanda samtidigt som den suger energi mer försiktigt per token än GPT-4o.
Hur jämför ChatGPT sig med andra verktyg?
Vid det här laget bör du veta att hur mycket energi ChatGPT använder beror på vilken version du interagerar med, längden på anvisningarna och mekaniken under huven.
Jämfört med det större universumet av AI-verktyg är ChatGPT ungefär genomsnittligt när det gäller energibehov, särskilt för avancerade modeller.
Men när det gäller ren marknadsandel och användningsfrekvens innebär även "genomsnittlig" användning ett enormt energifotavtryck i stor skala.
Energianvändning vs Google-sökning
Redan 2009, Google uppskattade energikostnaden för en enda sökfråga till 0,3 Wh.
Spola fram till 2024, och den uppskattningen har blivit dammig.
Det visar sig att dagens Google-sökningar faktiskt använder ungefär 10 gånger mindre energi än de tidiga uppskattningarna.
Samtidigt var tidigare energiuppskattningar för en genomsnittlig LLM-förfrågan, inklusive ChatGPT, också cirka 10 gånger för höga (2,9 Wh).
Med den senaste forskningen som sätter Googles energiförbrukning på 0,04 Wh och ChatGPT på 0,3 Wh, dessa två misstag tar ut varandra, vilket innebär att den gamla "LLM använder cirka 10 gånger mer energi per fråga än Google Search" fortfarande gäller ... men bara för att alla hade fel på rätt sätt.
Vad gör OpenAI för att minska påverkan?
OpenAI är fullt medvetet om att träning och drift av modeller som ChatGPT förbrukar energi i en betydligt snabbare takt.
Vilket för oss till frågan: vad görs åt saken?
För det första har OpenAI drivit på effektivitetsuppgraderingar.
Med tiden har nyare modeller, som GPT-4o, och nu GPT-4.1har särskilt optimerats för betydligt lägre energiförbrukning under inferens.
Framsteg inom modellarkitektur, tokenhantering och hårdvaruförbättringar på servernivå innebär att hur mycket energi en ChatGPT-fråga använder redan idag är mycket lägre än vad den skulle ha varit för ett år sedan för samma uppgift.
OpenAI samarbetar också med Microsoft Azure och Azure har åtagit sig att driva sina datacenter med 100% förnybar energi senast 2025.
Det är viktigt eftersom när du kastar frågor på ChatGPT, pingar du Azure-superdatorer som vi pratade om tidigare.
Att flytta energikällan från fossila bränslen till förnybara energikällor minskar inte direkt den wattstyrka som en fråga använder, men det minskar radikalt det koldioxidavtryck som är kopplat till den.
Utöver infrastruktur händer det en del mer framtidsinriktade saker. OpenAI undersöker aktivt olika sätt att göra modeller mindre utan att offra prestanda.
Modellkomprimering, destillering och smartare routing (som dynamisk tokenbearbetning) är alla mycket aktuella ämnen i AI efficiency-kretsar.
Vad kan du göra som användare?
Medan OpenAI hanterar de stora strukturella förändringarna har användarna fortfarande en roll att spela för att minimera avfall och använda ChatGPT på ett ansvarsfullt sätt.
Här är vad du kan göra:
- Var kortfattad: Ge dina uppmaningar en tydlig och stram ram. Varje extra token som bearbetas kostar lite energi.
- Undvik skräppostmeddelanden: Motstå frestelsen att skicka in 15 lätt omformulerade versioner av samma fråga.
- Använd lämpliga modeller: När det är möjligt, välj lättare, billigare modeller (som GPT-4o-mini, om den erbjuds) för vardagliga eller lätta uppgifter.
- Batcha dina förfrågningar: I stället för en massa fragmenterade frågor kan du samla dem i en enda, väl genomtänkt uppmaning.
Om du vill slippa ändlösa omskrivningar och omgenereringar är det smart att använda dedikerade verktyg som genererar renare, publiceringsfärdigt innehåll redan från de första försöken.
Det är här Odetekterbar AI verktyg som Smygskrivare eller Parafraser Kom in.
Istället för att be ChatGPT om den perfekta versionen av din text genom flera redigeringar och försök (som kostar mer energi), kan du helt enkelt använda våra specialiserade verktyg som är byggda för precision.
Verktyg som är utformade för specifika ändamål är i allmänhet mer effektiva och alla våra verktyg passar perfekt in i denna modell för smart och energimedveten användning.
Med andra ord: renare resultat på färre försök = mindre energiförbrukning = nöjdare servrar = du räddar världen, ett skarpt stycke i taget.
Är du redo att se skillnaden? Starta vår AI Detector och Humanizer i widgeten nedan!
Vanliga frågor och svar: ChatGPT och energianvändning
Hur mycket energi går det åt till en ChatGPT-begäran?
En typisk ChatGPT-fråga, särskilt när GPT-4o används, förbrukar cirka 0,3 wattimmar.
Detta baseras på nyare och mer exakta uppskattningar som återspeglar förbättringar i hårdvarueffektivitet och modellarkitektur.
Tidigare uppskattningar låg på cirka 3 wattimmar per fråga, men dessa siffror baserades på äldre teknik och antaganden.
Så, hur mycket energi använder en ChatGPT-begäran idag är mycket lägre än tidigare.
Är utbildning mer energikrävande än att använda den?
Ja, absolut. Att träna en modell som ChatGPT använder en enorm mängd energi, mycket mer än att köra den för dagliga frågor.
Utbildning innebär att enorma datamängder bearbetas under veckor eller månader på tusentals GPU:er, vilket resulterar i ett mycket stort koldioxidavtryck i början.
Att använda modellen (inferens) förbrukar däremot relativt små mängder energi per förfrågan.
Publicerar OpenAI hållbarhetsdata?
Nej, OpenAI publicerar för närvarande inte detaljerade offentliga hållbarhetsrapporter eller fullständig statistik över energianvändning.
OpenAI har ett nära samarbete med Microsoft Azure, som har sina egna hållbarhetsmål och hållbarhetsrapporter, men OpenAI självt har inte gjort några omfattande offentliggöranden om energiförbrukningen eller koldioxidavtrycket för sina modeller.
Slutliga tankar: Energikostnaden för AI
Sammanfattningsvis beror hur mycket energi ChatGPT förbrukar i hög grad på vilken modell du använder och hur du använder den.
Men överlag är det tydligt att nyare modeller blir allt effektivare och att branschen gör verkliga ansträngningar för att minska miljöpåverkan.
Med det sagt kan valet av rätt verktyg för rätt uppgift göra en meningsfull skillnad i ditt digitala fotavtryck.
Smartare arbetsflöden, färre omprövningar och tydligare anvisningar leder till lägre energiförbrukning.
Och när du kombinerar ChatGPT med specialbyggda verktyg som Undetectable AI får du det bästa av två världar.
Du genererar rent, polerat och publiceringsfärdigt innehåll med mindre försök och misstag. Det innebär att du sparar tid, pengar och, ja, lite av planeten också.
Om du vill arbeta smartare och grönare, registrera dig för Undetectable AI idag.