Que quantidade de energia é utilizada pelo ChatGPT?

Se procurar na Internet respostas para a pergunta "quanta energia consome o ChatGPT", provavelmente encontrará algo deste género:

"O ChatGPT consome 10 vezes mais eletricidade do que uma pesquisa no Google."

Se seguir o rasto, esta reivindicação conduz a um Relatório de 170 páginas da AIEque remete para um artigo que cita uma estimativa provável de um presidente da Alphabet... com base em dados de 2009. Caramba!

Na realidade, as operações de pesquisa mais recentes da Google são cerca de 10 vezes mais eficientes do que em 2009, e o consumo real de energia por pedido do ChatGPT é atualmente muito inferior ao que os primeiros sinais de alarme sugeriam.

Os modelos mais recentes, como o GPT-4o, fizeram grandes progressos em termos de eficiência, o que significa que os números que circulam por aí estão desactualizados e, honestamente, são um pouco enganadores.

Então, qual é a imagem real? É exatamente nisso que estamos a mergulhar aqui.

As suas conclusões serão:

  • O que é que alimenta o ChatGPT?
  • Quanta energia é utilizada por uma pesquisa ChatGPT?
  • Quanta energia consome em comparação com a Pesquisa Google e outros modelos de IA?
  • O que está a OpenAI a fazer para reduzir o seu impacto?
  • Que medidas pode tomar enquanto utilizador para tornar a sua utilização da IA mais responsável?

Vamos a isso.

O que é o ChatGPT?

Mark Russinovich, CTO do Microsoft Azure, deu-nos uma espreitadela por detrás da cortina num podcast que Microsoft publicado em 2023

Segundo ele, a Microsoft construiu uma infraestrutura capaz de treinar modelos com centenas de milhares de milhões de parâmetros. 

O GPT-3, por exemplo, tinha 175 mil milhões de parâmetros, o que já parece demasiado, até ouvirmos que o modelo Megatron-Turing da Microsoft tinha 530 mil milhões.

Nunca mais se preocupe com o facto de a IA detetar os seus textos. Undetectable AI Pode ajudar-vos:

  • Faça aparecer a sua escrita assistida por IA de tipo humano.
  • Bypass todas as principais ferramentas de deteção de IA com apenas um clique.
  • Utilização IA com segurança e com confiança na escola e no trabalho.
Experimenta GRATUITAMENTE

Em termos de hardware, o supercomputador OpenAI original de 2020 juntou mais de 285.000 núcleos de CPU ligados por AMD InfiniBand e 10.000 GPUs NVIDIA V100 Tensor Core. 

A nova série de máquinas virtuais H100 agrupa até oito GPUs NVIDIA H100 Tensor Core por VM e pode chegar a milhares. 

Resumindo, se está a pensar o que é que dá poder ao ChatGPT, a resposta é basicamente: tudo.

Todos os núcleos, todas as GPUs, toda a largura de banda de rede que poderia acumular nos seus sonhos.

Estimativa do consumo de energia do ChatGPT

Agora, a verdadeira questão: quanta energia é utilizada pelo ChatGPT por pergunta? 

É de esperar que seja apocalítico, como se derretesse os glaciares com cada mensagem que digitasse. 

Mas, na verdade, estimativas recentes dizem que uma consulta ChatGPT típica no GPT-4o consome cerca de 0,3 watt-hora (Wh). 

Isto é cerca de dez vezes menos do que as estimativas mais antigas (e provavelmente incorrectas) do início de 2023, que apontavam para 3 watts-hora. 

O salto de eficiência deve-se a melhores modelos, hardware mais apurado e à constatação de que as estimativas mais antigas eram demasiado pessimistas em relação à contagem de fichas.

Para se ter uma ideia, 0,3 watts-hora é menos energia do que a que o seu computador portátil consome enquanto aquece o seu café. 

Mesmo que esteja a fazer consultas pesadas durante todo o dia, a quantidade de energia que o ChatGPT consome por dia é bastante reduzida em comparação com, por exemplo, o funcionamento do seu AC ou PC de jogos. Mas isso é apenas o seu consumo.

A base de utilizadores da OpenAI ultrapassava os 400 milhões de utilizadores semanais em fevereiro, de acordo com o que um Um porta-voz da OpenAI disse à Reuters. Portanto, são muitos watts-hora, mesmo que se esteja a ser eficiente.

É importante notar que este valor de 0,3 watts-hora ainda é um pouco cauteloso. 

Muitas consultas quotidianas são provavelmente mais baratas do que isso.

Mas as consultas que envolvem grandes quantidades de entrada, saídas extensas ou modelos de raciocínio pesados ainda podem aumentar muito o consumo.

Utilização de energia: GPT-4 vs GPT-3.5

Embora o GPT-3.5 tenha sido descontinuado, seu legado ainda permanece, especialmente quando estamos discutindo quanta energia o ChatGPT usa entre as versões.

Eis o que os dados dizem sobre o seu consumo de energia em comparação com o GPT-4.

Para um modelo de estilo GPT-3 com cerca de 175 mil milhões de parâmetros, as emissões já eram intensas, mas a passagem para um modelo de estilo GPT-4, com a sua arquitetura mais pesada, poderia aumentar as emissões em cerca de 200 vezes. 

De acordo com George HotzO GPT-4 é constituído por oito instâncias de um modelo semelhante ao GPT-3, com 220B de parâmetros, cosidas entre si. 

Mas o mais importante é que apenas dois destes modelos são realmente encaminhados durante a inferência, o que significa que a ação real acontece com cerca de 280B parâmetros efectivos, uma vez que se tem em conta alguma partilha de parâmetros (~55B para os mecanismos de atenção).

Se compararmos isto com a configuração de 175B do GPT-3.5, começamos a perceber porque é que os custos de inferência do GPT-4 são até três vezes superiores. 

O crescimento do consumo de energia ultrapassa o mero aumento do número de parâmetros, que deveria ter sugerido apenas um aumento de 1,6 vezes. 

Mas não foi isso que aconteceu porque as consultas do GPT-4 são simplesmente muito mais caras. 

A pegada de carbono dos modelos de IA

Executar grandes modelos de IA não é barato, nem para o planeta nem para a fatura da eletricidade.

Estes modelos requerem uma grande capacidade de computação, o que significa muita eletricidade e, em muitos casos, muitas emissões.

Por exemplo, o GPT-3 terá necessitado de cerca de 1.287 MWh de eletricidade para a sua formação, produzindo mais de 50 libras de CO2.

Os modelos mais recentes, como o GPT-4o, são ainda maiores, mas a OpenAI não divulgou a sua pegada exacta.

Para além do ChatGPT da OpenAI, temos o assistente de IA da Meta, que provavelmente está a funcionar nos modelos Llama 3.2 (parâmetros 11B ou 90B).

Mais uma vez, não estão disponíveis valores exactos das emissões de CO2.

O Soneto Claude 3.5 da Anthropic tem um peso muito maior, estimado em cerca de 400 mil milhões de parâmetros, sem que seja revelada a sua pegada de carbono exacta.

E o Gemini da Google? Equipado com as variantes "Flash" e "Pro", embora a Google não tenha revelado os números exactos dos parâmetros.

Podemos ainda inferir que estão no mesmo patamar que o GPT-4o ou as suas variantes mini.

E por falar em modelos simplificados, o DeepSeek-V3 está aqui com apenas 37 mil milhões de parâmetros activos (de um total de 671 mil milhões). 

A sua variante de raciocínio R1 apresenta um forte desempenho, consumindo energia de forma mais delicada por ficha do que o GPT-4o. 

Como o ChatGPT se compara a outras ferramentas?

Neste ponto, deve saber que a quantidade de energia que o ChatGPT utiliza depende da versão com que está a interagir, da duração dos avisos e da mecânica subjacente. 

Em comparação com o universo mais vasto de ferramentas de IA, o ChatGPT está na média em termos de consumo de energia, especialmente nos modelos topo de gama. 

Mas quando se trata de quota de mercado e frequência de utilização, mesmo "média" traduz-se numa enorme pegada energética à escala.

Utilização de energia vs Pesquisa Google

Em 2009, O Google estimou o custo energético de uma única consulta de pesquisa é de 0,3 Wh.

Em 2024, essa estimativa já não é mais a mesma.

Acontece que as pesquisas actuais do Google consomem cerca de 10 vezes menos energia do que essas estimativas iniciais. 

Entretanto, as estimativas anteriores de energia para um pedido médio de LLM, incluindo o ChatGPT, também eram cerca de 10 vezes mais elevadas (2,9 Wh).

Com as últimas pesquisas que colocam o consumo de energia do Google a 0,04 Wh e o ChatGPT a 0,3 Wh, estes dois erros anulam-se mutuamente, o que significa que a velha máxima "os LLMs consomem cerca de 10 vezes mais energia por consulta do que a Pesquisa Google" ainda se mantém... mas apenas porque toda a gente se enganou da forma correta. 

O que está a OpenAI a fazer para reduzir o impacto?

A OpenAI tem plena consciência de que o treino e o funcionamento de modelos como o ChatGPT consomem energia a um ritmo significativamente mais rápido. 

O que nos leva à questão: o que é que está a ser feito?

Em primeiro lugar, a OpenAI tem vindo a promover actualizações de eficiência. 

Com o tempo, os modelos mais recentes, como o GPT-4o, e agora GPT-4.1foram especificamente optimizados para reduzir significativamente o consumo de energia durante a inferência. 

Os avanços na arquitetura dos modelos, no tratamento de tokens e nas melhorias de hardware ao nível do servidor significam que, atualmente, a quantidade de energia utilizada por uma consulta ChatGPT já é muito inferior à que seria utilizada há um ano para a mesma tarefa.

A OpenAI também é parceira da Microsoft Azure e O Azure comprometeu-se a gerir os seus centros de dados com 100% de energia renovável até 2025

Isto é importante porque quando está a lançar consultas no ChatGPT, está a fazer ping nos supercomputadores Azure de que falámos anteriormente. 

A mudança da fonte de energia dos combustíveis fósseis para as energias renováveis não diminui diretamente a potência que uma consulta utiliza, mas reduz radicalmente a pegada de carbono associada à mesma.

Para além da infraestrutura, estão a acontecer algumas coisas mais viradas para o futuro. A OpenAI está a investigar ativamente formas de tornar os modelos mais pequenos sem sacrificar o desempenho.

A compressão de modelos, a destilação e o encaminhamento mais inteligente (como o processamento dinâmico de tokens) são temas muito actuais nos círculos de eficiência da IA. 

O que pode fazer como utilizador?

Enquanto a OpenAI lida com as grandes mudanças estruturais, os utilizadores continuam a ter um papel a desempenhar na minimização dos resíduos e na utilização responsável do ChatGPT. 

Eis o que pode fazer:

  • Ser conciso: Enquadre os seus pedidos de forma clara e rigorosa. Cada ficha extra processada custa um pouco de energia.
  • Evitar o envio de mensagens de spam: Resista à tentação de apresentar 15 versões ligeiramente reformuladas da mesma pergunta.
  • Utilizar modelos adequados: Sempre que possível, escolha modelos mais leves e baratos (como o GPT-4o-mini, se disponível) para tarefas casuais ou ligeiras.
  • Agrupe os seus pedidos: Em vez de um monte de perguntas fragmentadas, consolide-as numa única pergunta bem pensada.

Se quiser reduzir o número interminável de repetições e gerações, é inteligente utilizar ferramentas dedicadas que geram conteúdos mais limpos e prontos para publicação desde as primeiras tentativas.

É aqui que IA indetetável ferramentas como Escritor furtivo ou Parafraseador entra. 

Em vez de pedir ao ChatGPT a versão perfeita do seu texto através de múltiplas edições e tentativas (cada uma custando mais energia), pode simplesmente usar as nossas ferramentas especializadas construídas para a precisão. 

As ferramentas concebidas para acções específicas têm geralmente um desempenho mais eficiente e todas as nossas ferramentas se enquadram neste modelo de utilização inteligente e consciente da energia. 

Por outras palavras, resultados mais limpos em menos tentativas = menos energia gasta = servidores mais felizes = está a salvar o mundo, um parágrafo nítido de cada vez.

Pronto para ver a diferença? Lance o nosso Detetor de IA e Humanizador no widget abaixo!

Perguntas frequentes: ChatGPT e utilização de energia

Quanta energia é utilizada por um pedido ChatGPT?

Uma consulta ChatGPT típica, especialmente quando se utiliza o GPT-4o, consome cerca de 0,3 watts-hora.

Isto baseia-se em estimativas mais recentes e mais precisas que reflectem melhorias na eficiência do hardware e na arquitetura do modelo. 

As estimativas anteriores apontavam para cerca de 3 watts-hora por consulta, mas esses números baseavam-se em tecnologia e pressupostos mais antigos.

Assim, a quantidade de energia que um pedido de ChatGPT utiliza atualmente é muito menor do que antigamente.

A formação consome mais energia do que a sua utilização?

Sim, sem dúvida. Treinar um modelo como o ChatGPT consome uma enorme quantidade de energia, muito mais do que executá-lo para consultas quotidianas.

O treino envolve o processamento de enormes conjuntos de dados durante semanas ou meses em milhares de GPUs, o que resulta numa pegada de carbono inicial muito grande.

Em contrapartida, a utilização do modelo (inferência) consome quantidades relativamente pequenas de energia por pedido.

A OpenAI publica dados de sustentabilidade?

Não, a OpenAI não divulga atualmente relatórios públicos detalhados de sustentabilidade nem estatísticas completas de utilização de energia.

Embora trabalhem em estreita colaboração com o Microsoft Azure, que tem os seus próprios objectivos e relatórios de sustentabilidade, a própria OpenAI não fez divulgações exaustivas sobre o consumo de energia ou a pegada de carbono dos seus modelos.

Reflexões finais: O custo energético da IA

Em conclusão, a quantidade de energia que o ChatGPT consome depende muito do modelo a que está a aceder e da forma como o utiliza. 

Mas, de um modo geral, é evidente que os modelos mais recentes estão a tornar-se mais eficientes e que a indústria está a fazer esforços reais para reduzir o impacto ambiental.

Dito isto, escolher a ferramenta certa para a tarefa certa pode fazer uma diferença significativa na sua pegada digital. 

Fluxos de trabalho mais inteligentes, menos tentativas e avisos mais claros contribuem para reduzir o consumo de energia. 

E quando se combina o ChatGPT com ferramentas específicas como a IA indetetável, obtém-se o melhor dos dois mundos.

Gera conteúdo limpo, polido e pronto a publicar com menos tentativas e erros. Isso significa poupar tempo, computação e, sim, um pouco do planeta também.

Se quer trabalhar de forma mais inteligente e ecológica, inscrever-se hoje na Undetectable AI.

Undetectable AI (TM)