Se você procurar na Internet por respostas sobre quanta energia o ChatGPT usa, provavelmente encontrará algo assim:
"O ChatGPT usa 10 vezes mais eletricidade do que uma pesquisa no Google."
Se você seguir a trilha, essa reivindicação leva a um Relatório de 170 páginas da AIEque faz um link para um artigo que cita uma estimativa provável de um presidente da Alphabet... com base em dados de 2009. Caramba!
Na realidade, as operações de pesquisa mais recentes do Google são cerca de 10 vezes mais eficientes do que em 2009, e o uso real de energia do ChatGPT por solicitação hoje é muito menor do que os alarmes iniciais sugeriam.
Os modelos mais novos, como o GPT-4o, fizeram grandes avanços em termos de eficiência, o que significa que os números que circulam por aí estão desatualizados e, honestamente, são um pouco enganosos.
Então, qual é o quadro real? É exatamente nisso que estamos nos aprofundando aqui.
Suas conclusões serão:
- O que alimenta o ChatGPT nos bastidores?
- Quanta energia é usada em uma pesquisa do ChatGPT?
- Qual é o consumo de energia em comparação com a Pesquisa Google e outros modelos de IA?
- O que a OpenAI está fazendo para reduzir seu impacto?
- Que medidas você pode tomar como usuário para tornar seu uso de IA mais responsável?
Vamos entrar no assunto.
O que é o ChatGPT?
Mark Russinovich, CTO do Microsoft Azure, nos deu uma olhada por trás da cortina em um podcast . Microsoft publicado em 2023.
De acordo com ele, a Microsoft construiu uma infraestrutura capaz de treinar modelos com centenas de bilhões de parâmetros.
O GPT-3, por exemplo, tinha 175 bilhões de parâmetros, o que já parece um número excessivo até ouvir que o modelo Megatron-Turing da Microsoft tinha 530 bilhões.
Nunca mais se preocupe com a detecção de seus textos pela IA. Undetectable AI Pode lhe ajudar:
- Faça sua escrita assistida por IA aparecer semelhante ao humano.
- Bypass todas as principais ferramentas de detecção de IA com apenas um clique.
- Uso IA com segurança e com confiança na escola e no trabalho.
Em termos de hardware, o supercomputador OpenAI original de 2020 reuniu mais de 285.000 núcleos de CPU conectados ao AMD InfiniBand e 10.000 GPUs NVIDIA V100 Tensor Core.
A nova série de máquinas virtuais H100 agrupa até oito GPUs NVIDIA H100 Tensor Core por VM e é dimensionada para milhares.
Em suma, se você estiver se perguntando o que dá poder ao ChatGPT, a resposta é basicamente: tudo isso.
Todos os núcleos, todas as GPUs, toda a largura de banda de rede que você poderia acumular em seus sonhos.
Estimativa de uso de energia do ChatGPT
Agora, vamos à verdadeira questão: quanta energia o ChatGPT usa por pergunta?
Você pode esperar que ele seja apocalíptico, como se derretesse geleiras a cada comando digitado.
Mas, na verdade, estimativas recentes dizem que uma consulta típica do ChatGPT no GPT-4o consome cerca de 0,3 watt-hora (Wh).
Isso é cerca de dez vezes menos do que as estimativas mais antigas (e provavelmente imprecisas) do início de 2023, que apontavam para 3 watts-hora.
O salto na eficiência se deve a modelos melhores, hardware mais nítido e à constatação de que as estimativas mais antigas estavam sendo muito pessimistas em relação à contagem de tokens.
Para se ter uma ideia, 0,3 watt-hora é menos energia do que o laptop consome enquanto você reaquece o café.
Mesmo que você esteja fazendo consultas pesadas o dia todo, os números de quanta energia o ChatGPT usa por dia ainda são bem modestos em comparação com, por exemplo, o funcionamento do seu ar-condicionado ou do seu PC para jogos. Mas esse é apenas o seu uso.
A base de usuários da OpenAI era de mais de 400 milhões por semana em fevereiro, de acordo com o que um Um porta-voz da OpenAI disse à Reuters. Portanto, seriam muitos watts-hora, mesmo que você esteja sendo eficiente.
É importante observar que esse valor de 0,3 watt-hora ainda é um pouco cauteloso.
Muitas consultas cotidianas são provavelmente mais baratas do que isso.
No entanto, as consultas que envolvem grandes quantidades de entrada, saídas extensas ou modelos de raciocínio pesados ainda podem aumentar muito o consumo.
Uso de energia: GPT-4 vs GPT-3.5
Embora o GPT-3.5 tenha sido descontinuado, seu legado ainda permanece, especialmente quando estamos discutindo quanta energia o ChatGPT usa em todas as versões.
Veja a seguir o que os dados dizem sobre seu uso de energia em comparação com o GPT-4.
Para um modelo no estilo GPT-3 com cerca de 175 bilhões de parâmetros, as emissões já eram intensas, mas a mudança para um modelo no estilo GPT-4, com sua arquitetura mais pesada, poderia aumentar as emissões em cerca de 200 vezes.
De acordo com George HotzO GPT-4 é composto por oito instâncias de um modelo parecido com o GPT-3 de 220B-parâmetros.
Mas o mais importante é que apenas dois desses modelos são de fato roteados durante a inferência, o que significa que a ação real acontece com cerca de 280 bilhões de parâmetros efetivos, uma vez que você considera algum compartilhamento de parâmetros (~55 bilhões para mecanismos de atenção).
Compare isso com a configuração de 175B do GPT-3.5 e você começará a entender por que os custos de inferência do GPT-4 são até três vezes maiores.
O crescimento no uso de energia supera o mero aumento na contagem de parâmetros, que deveria ter sugerido apenas um aumento de 1,6 vezes.
Mas não foi isso que aconteceu porque as consultas da GPT-4 são simplesmente muito mais caras.
A pegada de carbono dos modelos de IA
A execução de grandes modelos de IA não é barata, nem para o planeta nem para a conta de energia.
Esses modelos exigem grande capacidade de computação, o que significa muita eletricidade e, em muitos casos, muitas emissões.
Por exemplo, o GPT-3 supostamente exigiu cerca de 1.287 MWh de eletricidade para o treinamento, produzindo mais de 50 libras de CO2.
Os modelos mais novos, como o GPT-4o, são ainda maiores, mas a OpenAI não divulgou o tamanho exato.
Além do ChatGPT da OpenAI, você tem o assistente de IA do Meta, que provavelmente está sendo executado nos modelos Llama 3.2 (parâmetros 11B ou 90B).
Novamente, os números exatos das emissões de CO2 não estão disponíveis.
O Claude 3.5 Sonnet da Anthropic tem um peso muito maior, estimado em cerca de 400 bilhões de parâmetros, sem divulgação de sua pegada de carbono exata.
E o Gemini do Google? Equipado com as variantes "Flash" e "Pro", embora o Google não tenha revelado os números exatos dos parâmetros.
Ainda podemos inferir que eles estão no mesmo patamar do GPT-4o ou de suas variantes mini.
E por falar em modelos simplificados, o DeepSeek-V3 está aqui flexionando com apenas 37 bilhões de parâmetros ativos (de um total de 671 bilhões).
Sua variante de raciocínio R1 mostra um bom desempenho e consome energia de forma mais delicada por token do que o GPT-4o.
Como o ChatGPT se compara a outras ferramentas?
Neste ponto, você deve saber que a quantidade de energia que o ChatGPT usa depende da versão com a qual você está interagindo, da duração dos prompts e da mecânica subjacente.
Em comparação com o universo maior de ferramentas de IA, o ChatGPT está na média em termos de demanda de energia, especialmente para modelos de ponta.
Mas quando se trata de participação de mercado e frequência de uso, até mesmo a "média" se traduz em uma enorme pegada de energia em escala.
Uso de energia vs. Pesquisa do Google
Em 2009, O Google estimou o custo de energia de uma única consulta de pesquisa é de 0,3 Wh.
Avançando para 2024, essa estimativa se tornou obsoleta.
Na verdade, as pesquisas atuais do Google consomem dez vezes menos energia do que essas estimativas iniciais.
Enquanto isso, estimativas anteriores de energia para uma solicitação média de LLM, incluindo o ChatGPT, também eram cerca de 10 vezes mais altas (2,9 Wh).
Com as pesquisas mais recentes que colocam o consumo de energia do Google de 0,04 Wh e o ChatGPT a 0,3 Wh, esses dois erros se cancelam mutuamente, o que significa que o antigo "LLMs usam cerca de 10 vezes mais energia por consulta do que a Pesquisa Google" ainda é válido... mas apenas porque todos estavam errados da maneira certa.
O que a OpenAI está fazendo para reduzir o impacto?
A OpenAI tem plena consciência de que o treinamento e a execução de modelos como o ChatGPT consomem energia em um ritmo significativamente mais rápido.
O que nos leva à pergunta: o que está sendo feito em relação a isso?
Em primeiro lugar, a OpenAI vem promovendo atualizações de eficiência.
Com o passar do tempo, modelos mais novos, como o GPT-4o, e agora GPT-4.1foram especificamente otimizados para reduzir significativamente o consumo de energia durante a inferência.
Os avanços na arquitetura de modelos, no tratamento de tokens e nas melhorias de hardware no nível do servidor significam que, atualmente, o consumo de energia de uma consulta do ChatGPT já é muito menor do que seria há um ano para a mesma tarefa.
A OpenAI também tem parceria com o Microsoft Azure e O Azure se comprometeu a operar seus data centers com 100% de energia renovável até 2025.
Isso é importante porque, quando você lança consultas no ChatGPT, está fazendo ping nos supercomputadores do Azure sobre os quais falamos anteriormente.
Mudar a fonte de energia de combustíveis fósseis para renováveis não reduz diretamente a potência que uma consulta usa, mas diminui radicalmente a pegada de carbono associada a ela.
Além da infraestrutura, há mais coisas voltadas para o futuro acontecendo. A OpenAI está pesquisando ativamente maneiras de tornar os modelos menores sem sacrificar o desempenho.
A compactação de modelos, a destilação e o roteamento mais inteligente (como o processamento dinâmico de tokens) são tópicos muito atuais nos círculos de eficiência de IA.
O que você pode fazer como usuário?
Enquanto a OpenAI lida com as grandes mudanças estruturais, os usuários ainda têm um papel a desempenhar na minimização do desperdício e no uso responsável do ChatGPT.
Veja o que você pode fazer:
- Seja conciso: Enquadre suas solicitações de forma clara e firme. Cada token extra processado custa um pouco de energia.
- Evite spam nos prompts: Resista à tentação de enviar 15 versões ligeiramente reformuladas da mesma pergunta.
- Use modelos apropriados: Quando possível, escolha modelos mais leves e baratos (como o GPT-4o-mini, se oferecido) para tarefas casuais ou leves.
- Agrupe suas solicitações: Em vez de um monte de perguntas fragmentadas, consolide-as em um único prompt bem pensado.
Se você quiser reduzir as intermináveis repetições e gerações, é inteligente usar ferramentas dedicadas que geram conteúdo mais limpo e pronto para publicação desde as primeiras tentativas.
É aqui que você Undetectable AI ferramentas como Escritor furtivo ou Parafraseador Entre.
Em vez de solicitar ao ChatGPT a versão perfeita do seu texto por meio de várias edições e novas tentativas (cada uma custando mais energia), você pode simplesmente usar nossas ferramentas especializadas criadas para precisão.
As ferramentas projetadas para ações específicas geralmente têm um desempenho mais eficiente e todas as nossas ferramentas se encaixam perfeitamente nesse modelo de uso inteligente e consciente da energia.
Em outras palavras, resultados mais limpos em menos tentativas = menos energia queimada = servidores mais felizes = você salvando o mundo, um parágrafo nítido de cada vez.
Pronto para ver a diferença? Inicie nosso Detector de IA e Humanizador no widget abaixo!
Perguntas frequentes: ChatGPT e uso de energia
Quanta energia é usada por uma solicitação do ChatGPT?
Uma consulta típica do ChatGPT, especialmente quando se usa o GPT-4o, consome cerca de 0,3 watt-hora.
Isso se baseia em estimativas mais novas e mais precisas que refletem melhorias na eficiência do hardware e na arquitetura do modelo.
As estimativas anteriores eram de cerca de 3 watts-hora por consulta, mas esses números se baseavam em tecnologia e suposições mais antigas.
Portanto, a quantidade de energia que uma solicitação do ChatGPT usa atualmente é muito menor do que costumava ser.
O treinamento consome mais energia do que o uso?
Sim, com certeza. O treinamento de um modelo como o ChatGPT usa uma quantidade enorme de energia, muito mais do que executá-lo para consultas diárias.
O treinamento envolve o processamento de enormes conjuntos de dados durante semanas ou meses em milhares de GPUs, o que resulta em uma pegada de carbono inicial muito grande.
Por outro lado, o uso do modelo (inferência) consome quantidades relativamente pequenas de energia por solicitação.
A OpenAI publica dados de sustentabilidade?
Não, a OpenAI não divulga atualmente relatórios públicos detalhados de sustentabilidade ou estatísticas completas de uso de energia.
Embora trabalhe em estreita colaboração com o Microsoft Azure, que tem suas próprias metas e relatórios de sustentabilidade, a própria OpenAI não fez divulgações abrangentes sobre o consumo de energia ou a pegada de carbono de seus modelos.
Considerações finais: O custo energético da IA
Em conclusão, o consumo de energia do ChatGPT depende muito do modelo que você está acessando e de como o utiliza.
Mas, de modo geral, está claro que os modelos mais novos estão ficando mais eficientes e o setor está fazendo esforços reais para reduzir o impacto ambiental.
Dito isso, escolher a ferramenta certa para a tarefa certa pode fazer uma diferença significativa em sua pegada digital.
Fluxos de trabalho mais inteligentes, menos tentativas e avisos mais claros contribuem para reduzir o consumo de energia.
E quando você combina o ChatGPT com ferramentas específicas, como a Undetectable AI, você obtém o melhor dos dois mundos.
Você gera conteúdo limpo, polido e pronto para publicação com menos tentativas e erros. Isso significa economia de tempo, de computação e, sim, de um pouco do planeta também.
Se você deseja trabalhar de forma mais inteligente e ecológica, Inscreva-se hoje mesmo no Undetectable AI.