Se cercate su Internet le risposte su quanta energia consuma ChatGPT, probabilmente troverete qualcosa del genere:
"ChatGPT consuma 10 volte più elettricità di una ricerca su Google".
Se si seguono le tracce, questa rivendicazione porta ad un Rapporto AIE di 170 pagineche rimanda a un documento che cita una probabile stima di un presidente di Alphabet... basata su dati del 2009. Accidenti!
In realtà, le nuove operazioni di ricerca di Google sono circa 10 volte più efficienti rispetto al 2009 e il consumo effettivo di energia per richiesta di ChatGPT è oggi molto inferiore a quanto suggerito dai primi campanelli d'allarme.
I modelli più recenti, come il GPT-4o, hanno fatto passi da gigante in termini di efficienza, per cui i numeri che circolano sono obsoleti e, onestamente, un po' fuorvianti.
Allora, qual è il quadro reale? È proprio questo l'argomento di cui ci occupiamo qui.
Gli elementi da prendere in considerazione saranno:
- Cosa alimenta ChatGPT sotto il cofano?
- Quanta energia consuma una ricerca ChatGPT?
- Quanta energia consuma rispetto a Google Search e ad altri modelli di AI?
- Cosa sta facendo OpenAI per ridurre il suo impatto?
- Quali misure potete adottare come utenti per rendere il vostro utilizzo dell'IA più responsabile?
Entriamo nel merito.
Quali sono i poteri di ChatGPT?
Mark Russinovich, CTO di Microsoft Azure, ci ha dato una sbirciatina dietro le quinte. in un podcast che Microsoft ha pubblicato nel 2023.
Secondo lui, Microsoft ha costruito un'infrastruttura in grado di addestrare modelli con centinaia di miliardi di parametri.
Il GPT-3, ad esempio, aveva 175 miliardi di parametri, che sembrano già troppi finché non si sente che il modello Megatron-Turing di Microsoft ne aveva 530 miliardi.
Non preoccupatevi più che l'intelligenza artificiale rilevi i vostri messaggi. Undetectable AI Può aiutarvi:
- Fate apparire la vostra scrittura assistita dall'intelligenza artificiale simile all'uomo.
- Bypass tutti i principali strumenti di rilevamento dell'intelligenza artificiale con un solo clic.
- Utilizzo AI in modo sicuro e con fiducia a scuola e al lavoro.
Dal punto di vista dell'hardware, il supercomputer OpenAI originale del 2020 ha messo insieme oltre 285.000 core di CPU AMD collegati in InfiniBand e 10.000 GPU NVIDIA V100 Tensor Core.
La nuova serie di macchine virtuali H100 raggruppa fino a otto GPU NVIDIA H100 Tensor Core per macchina virtuale, con una scalabilità fino a migliaia di unità.
In breve, se vi state chiedendo cosa alimenta ChatGPT, la risposta è sostanzialmente: tutto.
Tutti i core, tutte le GPU, tutta la larghezza di banda di rete che potreste mai accumulare nei vostri sogni.
Stima del consumo energetico di ChatGPT
Passiamo ora alla vera domanda: quanta energia consuma ChatGPT per ogni domanda?
Ci si potrebbe aspettare che sia apocalittico, che sciolga i ghiacciai a ogni digitazione.
Ma in realtà, secondo stime recenti, una tipica query ChatGPT su GPT-4o consuma circa 0,3 wattora (Wh).
Si tratta di una cifra circa dieci volte inferiore rispetto alle stime più vecchie (e probabilmente imprecise) dell'inizio del 2023, che indicavano un valore di 3 wattora.
Il salto di efficienza è dovuto a modelli migliori, a un hardware più preciso e alla consapevolezza che le vecchie stime erano troppo pessimistiche per quanto riguarda il conteggio dei gettoni.
Per fare un esempio, 0,3 wattora sono meno di quanto consuma il vostro portatile mentre riscaldate il caffè.
Anche se si eseguono tutto il giorno richieste pesanti, i numeri di quanta energia consuma ChatGPT al giorno sono ancora piuttosto modesti rispetto, ad esempio, al funzionamento dell'aria condizionata o del PC da gioco. Ma questo è solo il vostro utilizzo.
La base di utenti di OpenAI ha superato i 400 milioni di utenti settimanali a febbraio, stando a quanto riportato da una Un portavoce di OpenAI ha dichiarato a Reuters. Si tratta quindi di un sacco di wattora, anche se l'utilizzo è efficiente.
È importante notare che questa cifra di 0,3 wattora è ancora un po' prudente.
Molte domande di tutti i giorni sono probabilmente più economiche di questa cifra.
Ma le query che comportano quantità massicce di input, output estesi o modelli di ragionamento pesanti possono far lievitare i consumi.
Utilizzo di energia: GPT-4 vs GPT-3.5
Anche se GPT-3.5 è stato abbandonato, la sua eredità permane, soprattutto quando si parla di quanta energia consuma ChatGPT nelle varie versioni.
Ecco cosa dicono i dati sul consumo energetico rispetto al GPT-4.
Per un modello di tipo GPT-3 con circa 175 miliardi di parametri, le emissioni erano già intense, ma il passaggio a un modello di tipo GPT-4 con la sua architettura più pesante potrebbe aumentare le emissioni di circa 200 volte.
Secondo George HotzIl GPT-4 è costituito da otto istanze di un modello GPT-3 a 220B parametri, cucite insieme.
Ma, cosa importante, solo due di questi modelli vengono effettivamente indirizzati durante l'inferenza, il che significa che l'azione reale avviene con circa 280B parametri effettivi, una volta che si tiene conto di una certa condivisione dei parametri (~55B per i meccanismi di attenzione).
Se lo si confronta con la configurazione a 175B del GPT-3.5, si capisce perché i costi di inferenza del GPT-4 sono fino a tre volte superiori.
La crescita del consumo di energia supera il semplice aumento del numero di parametri, che avrebbe dovuto suggerire solo un aumento di 1,6 volte.
Ma non è andata così, perché le query di GPT-4 sono semplicemente molto più costose.
L'impronta di carbonio dei modelli di intelligenza artificiale
L'esecuzione di modelli di intelligenza artificiale di grandi dimensioni non è economica, né per il pianeta né per la bolletta elettrica.
Questi modelli richiedono una notevole potenza di calcolo, il che significa molta elettricità e, in molti casi, molte emissioni.
Ad esempio, il GPT-3 avrebbe richiesto circa 1.287 MWh di elettricità per l'addestramento, producendo oltre 50 libbre di CO2.
I modelli più recenti, come il GPT-4o, sono ancora più grandi, ma OpenAI non ha reso noto il loro ingombro esatto.
Oltre a ChatGPT di OpenAI, c'è l'assistente AI di Meta, che probabilmente gira su modelli Llama 3.2 (parametri 11B o 90B).
Anche in questo caso, non sono disponibili dati precisi sulle emissioni di CO2.
Il Claude 3.5 Sonnet di Anthropic pesa molto di più, con una stima di circa 400 miliardi di parametri, senza rivelare l'esatta impronta di carbonio.
E Gemini di Google? Potenziato dalle varianti "Flash" e "Pro", anche se Google non ha rivelato i numeri esatti dei parametri.
Possiamo comunque dedurre che si trovano nello stesso campo del GPT-4o o delle sue varianti mini.
E a proposito di modelli semplificati, DeepSeek-V3 è qui fuori a flettere con soli 37 miliardi di parametri attivi (su 671B totali).
La sua variante di ragionamento R1 mostra prestazioni elevate e un consumo di energia più delicato per gettone rispetto al GPT-4o.
Come si colloca ChatGPT rispetto ad altri strumenti?
A questo punto, dovreste sapere che la quantità di energia consumata da ChatGPT dipende dalla versione con cui state interagendo, dalla lunghezza delle richieste e dalla meccanica che si trova sotto il cofano.
Rispetto all'universo degli strumenti di intelligenza artificiale, ChatGPT è nella media in termini di consumo energetico, soprattutto per i modelli di fascia alta.
Ma quando si parla di quota di mercato e di frequenza di utilizzo, anche la "media" si traduce in un'enorme impronta energetica su scala.
Uso di energia vs. ricerca Google
Nel 2009, Google ha stimato il costo energetico di una singola query di ricerca è di 0,3 Wh.
Se si va avanti fino al 2024, quella stima si è impolverata.
È emerso che le ricerche odierne su Google consumano circa 10 volte meno energia rispetto a quelle prime stime.
Nel frattempo, le precedenti stime sull'energia per una richiesta media di LLM, compreso il ChatGPT, erano circa 10 volte superiori (2,9 Wh).
Con le ultime ricerche che mettono in evidenza la consumo energetico di Google a 0,04 Wh e ChatGPT a 0,3 Wh, questi due errori si annullano a vicenda, il che significa che il vecchio "LLM utilizza circa 10 volte più energia per query rispetto a Google Search" è ancora valido... ma solo perché tutti hanno sbagliato nel modo giusto.
Cosa sta facendo OpenAI per ridurre l'impatto?
OpenAI è pienamente consapevole del fatto che l'addestramento e l'esecuzione di modelli come ChatGPT consumano energia a un ritmo significativamente più veloce.
Il che ci porta alla domanda: cosa si sta facendo al riguardo?
Innanzitutto, OpenAI ha spinto gli aggiornamenti sull'efficienza.
Nel corso del tempo, i nuovi modelli, come il GPT-4o, e ora il GPT-4.1sono stati ottimizzati in modo specifico per ridurre significativamente il consumo di energia durante l'inferenza.
I progressi nell'architettura dei modelli, nella gestione dei token e nei miglioramenti hardware a livello di server fanno sì che oggi la quantità di energia utilizzata da una query ChatGPT sia già di gran lunga inferiore a quella che sarebbe stata utilizzata anche solo un anno fa per lo stesso compito.
OpenAI collabora anche con Microsoft Azure e Azure si è impegnata a gestire i propri data center con 100% di energia rinnovabile entro il 2025..
Questo è importante perché, quando si inviano query a ChatGPT, si sollecitano i supercomputer di Azure di cui abbiamo parlato prima.
Il passaggio da una fonte di energia fossile a una rinnovabile non riduce direttamente la potenza di un impianto, ma riduce radicalmente l'impronta di carbonio ad esso collegata.
Oltre all'infrastruttura, ci sono altre cose che riguardano il futuro. OpenAI sta attivamente ricercando modi per rendere i modelli più piccoli senza sacrificare le prestazioni.
La compressione dei modelli, la distillazione e l'instradamento più intelligente (come l'elaborazione dinamica dei token) sono tutti argomenti molto vivi negli ambienti dell'efficienza dell'IA.
Cosa può fare l'utente?
Mentre OpenAI gestisce i grandi cambiamenti strutturali, gli utenti hanno ancora un ruolo da svolgere nel ridurre al minimo gli sprechi e nell'utilizzare ChatGPT in modo responsabile.
Ecco cosa potete fare:
- Siate concisi: Inquadrate le vostre richieste in modo chiaro e rigoroso. Ogni gettone in più elaborato costa un po' di energia.
- Evitate di spammare le richieste: Resistete alla tentazione di presentare 15 versioni leggermente riformulate della stessa domanda.
- Utilizzare modelli appropriati: Se possibile, scegliete modelli più leggeri ed economici (come il GPT-4o-mini, se disponibile) per lavori occasionali o leggeri.
- Lottizzate le vostre richieste: Invece di un mucchio di domande frammentate, consolidatele in un'unica domanda ben congegnata.
Se si vogliono ridurre le infinite ripetizioni e rigenerazioni, è opportuno utilizzare strumenti dedicati che generano contenuti più puliti e pronti per la pubblicazione fin dai primi tentativi.
Qui è dove AI non rilevabile strumenti come Scrittore furtivo o Parafrasatore entra in scena.
Invece di chiedere a ChatGPT la versione perfetta del vostro testo attraverso molteplici modifiche e tentativi (ognuno dei quali costa più energia), potete semplicemente usare i nostri strumenti specializzati costruiti per la precisione.
Gli strumenti progettati per azioni specifiche sono generalmente più efficienti e tutti i nostri strumenti rientrano in questo modello di utilizzo intelligente e consapevole dell'energia.
In altre parole, risultati più puliti in un minor numero di tentativi = meno energia bruciata = server più felici = salvate il mondo, un paragrafo croccante alla volta.
Siete pronti a vedere la differenza? Lanciate il nostro AI Detector e Humanizer nel widget qui sotto!
Domande frequenti: ChatGPT e uso dell'energia
Quanta energia consuma una richiesta di ChatGPT?
Una tipica query ChatGPT, soprattutto se si utilizza GPT-4o, consuma circa 0,3 wattora.
Questo si basa su stime più recenti e più accurate che riflettono i miglioramenti nell'efficienza dell'hardware e nell'architettura del modello.
Le stime precedenti parlavano di circa 3 wattora per query, ma questi numeri si basavano su tecnologie e presupposti vecchi.
Quindi, la quantità di energia utilizzata da una richiesta di ChatGPT oggi è molto inferiore rispetto al passato.
La formazione è più dispendiosa dal punto di vista energetico rispetto all'utilizzo?
Sì, assolutamente. L'addestramento di un modello come ChatGPT consuma un'enorme quantità di energia, molto più che eseguirlo per le query quotidiane.
L'addestramento comporta l'elaborazione di enormi set di dati per settimane o mesi su migliaia di GPU, il che comporta un'impronta di carbonio iniziale molto elevata.
Al contrario, l'uso del modello (inferenza) consuma una quantità relativamente piccola di energia per ogni richiesta.
OpenAI pubblica dati sulla sostenibilità?
No, OpenAI non rilascia attualmente rapporti pubblici dettagliati sulla sostenibilità o statistiche complete sull'utilizzo dell'energia.
Mentre lavora a stretto contatto con Microsoft Azure, che ha i suoi obiettivi e i suoi rapporti sulla sostenibilità, OpenAI stessa non ha fatto dichiarazioni esaustive sul consumo di energia o sull'impronta di carbonio dei suoi modelli.
Riflessioni finali: Il costo energetico dell'IA
In conclusione, la quantità di energia consumata da ChatGPT dipende molto dal modello a cui si accede e dal modo in cui lo si utilizza.
Nel complesso, però, è chiaro che i nuovi modelli sono sempre più efficienti e l'industria si sta impegnando concretamente per ridurre l'impatto ambientale.
Detto questo, la scelta dello strumento giusto per il compito giusto può fare una differenza significativa nella vostra impronta digitale.
Flussi di lavoro più intelligenti, un minor numero di tentativi e messaggi più chiari contribuiscono a ridurre il consumo energetico.
E quando si combina ChatGPT con strumenti appositamente creati come Undetectable AI, si ottiene il meglio di entrambi i mondi.
Si generano contenuti puliti, curati e pronti per la pubblicazione con meno tentativi ed errori. Questo significa risparmiare tempo, calcoli e, sì, anche un po' di pianeta.
Se volete lavorare in modo più intelligente ed ecologico, iscriviti oggi a Undetectable AI.