¿Cuánta energía consume ChatGPT?

Si buscas en Internet respuestas a la pregunta de cuánta energía consume el ChatGPT, probablemente encuentres algo parecido a esto:

"ChatGPT consume 10 veces más electricidad que una búsqueda en Google".

Si se sigue el rastro, esta afirmación lleva a un Informe de 170 páginas de la AIEque enlaza con un artículo que cita una estimación probable de un presidente de Alphabet... basada en datos de 2009. ¡Caramba!

En realidad, las nuevas operaciones de búsqueda de Google son unas 10 veces más eficientes que en 2009, y el consumo real de energía por solicitud de ChatGPT es hoy mucho menor de lo que sugerían aquellas primeras alarmas.

Los modelos más recientes, como el GPT-4o, han avanzado mucho en eficiencia, lo que significa que las cifras que circulan por ahí están desfasadas y, sinceramente, son un poco engañosas.

Entonces, ¿cuál es la realidad? Eso es exactamente en lo que nos sumergimos aquí.

Sus conclusiones serán:

  • ¿Qué hace funcionar ChatGPT?
  • ¿Cuánta energía consume una búsqueda ChatGPT?
  • ¿Cuánta energía consume en comparación con Google Search y otros modelos de IA?
  • ¿Qué hace OpenAI para reducir su impacto?
  • ¿Qué medidas puedes tomar como usuario para que tu uso de la IA sea más responsable?

Vamos a ello.

¿Qué potencia ChatGPT?

Mark Russinovich, Director Técnico de Microsoft Azure, nos dio una mirada detrás de la cortina en un podcast que Microsoft publicó en 2023

Según él, Microsoft construyó una infraestructura capaz de entrenar modelos con cientos de miles de millones de parámetros. 

GPT-3, por ejemplo, tenía 175.000 millones de parámetros, que ya parecen demasiados hasta que oyes que el modelo Megatron-Turing de Microsoft flexionaba con 530.000 millones.

No vuelvas a preocuparte de que la IA detecte tus textos. Undetectable AI puede ayudarle:

  • Haz que aparezca tu escritura asistida por IA de aspecto humano.
  • Bypass las principales herramientas de detección de IA con un solo clic.
  • Utilice AI de forma segura y con confianza en la escuela y el trabajo.
Pruébalo GRATIS

En cuanto al hardware, el superordenador OpenAI 2020 original reunía más de 285.000 núcleos de CPU AMD conectados por InfiniBand y 10.000 GPU NVIDIA V100 Tensor Core. 

La nueva serie de máquinas virtuales H100 agrupa hasta ocho GPU NVIDIA H100 Tensor Core por máquina virtual y puede ampliarse a miles de ellas. 

En resumen, si te preguntas qué es lo que impulsa ChatGPT, la respuesta es básicamente: todo ello.

Todos los núcleos, todas las GPU, todo el ancho de banda de red que puedas acumular en tus sueños.

Consumo energético estimado de ChatGPT

Pasemos ahora a la verdadera cuestión: ¿cuánta energía consume ChatGPT por pregunta? 

Podrías esperar que fuera apocalíptico, como si derritiera glaciares con cada mensaje que tecleas. 

Pero, en realidad, según estimaciones recientes, una consulta típica de ChatGPT en GPT-4o consume unos 0,3 vatios-hora (Wh). 

Eso es unas diez veces menos que las estimaciones anteriores (y probablemente inexactas) de principios de 2023, que lo situaban en 3 vatios-hora. 

El aumento de la eficacia se debe a la mejora de los modelos y del hardware y a la constatación de que las estimaciones anteriores eran demasiado pesimistas en cuanto al número de fichas.

A escala, 0,3 vatios-hora es menos energía que la que consume tu portátil mientras recalientas el café. 

Incluso si te pasas el día haciendo consultas pesadas, las cifras de cuánta energía consume ChatGPT al día siguen siendo bastante discretas en comparación con, por ejemplo, el funcionamiento de tu aire acondicionado o tu PC de juegos. Pero eso es sólo tu uso.

La base de usuarios de OpenAI superaba los 400 millones semanales en febrero, según un Un portavoz de OpenAI dijo a Reuters. Así que serían muchos vatios-hora incluso siendo eficiente.

Es importante señalar que esta cifra de 0,3 vatios-hora sigue siendo un poco prudente. 

Muchas consultas cotidianas son probablemente más baratas que eso.

Sin embargo, las consultas que implican grandes cantidades de datos de entrada y salida, o modelos de razonamiento muy complejos, pueden disparar el consumo.

Consumo de energía: GPT-4 frente a GPT-3.5

Aunque GPT-3.5 ya no existe, su legado aún perdura, especialmente cuando hablamos de cuánta energía consume ChatGPT en las distintas versiones.

Esto es lo que dicen los datos sobre su consumo de energía en comparación con GPT-4.

Para un modelo de estilo GPT-3 con unos 175.000 millones de parámetros, las emisiones ya eran intensas, pero pasar a un modelo de estilo GPT-4 con su arquitectura más pesada podría disparar las emisiones unas 200 veces. 

Según George HotzGPT-4 son ocho instancias de un modelo GPT-3 de 220B de parámetro cosidas entre sí. 

Pero, lo que es más importante, sólo dos de estos modelos se enrutan realmente durante la inferencia, lo que significa que la acción real ocurre con unos 280B de parámetros efectivos una vez que se tiene en cuenta que se comparten algunos parámetros (~55B para los mecanismos de atención).

Si lo comparamos con la configuración 175B de GPT-3.5, empezaremos a entender por qué los costes de inferencia de GPT-4 son hasta tres veces superiores. 

El crecimiento del consumo de energía supera el mero aumento del número de parámetros, que debería haber sugerido sólo un aumento de 1,6 veces. 

Pero no ha sido así, porque las consultas de GPT-4 son sencillamente mucho más caras. 

La huella de carbono de los modelos de IA

Ejecutar grandes modelos de IA no es barato, ni para el planeta ni para la factura de la luz.

Estos modelos requieren una gran capacidad de cálculo, lo que significa mucha electricidad y, en muchos casos, muchas emisiones.

Por ejemplo, se dice que GPT-3 necesitó unos 1.287 MWh de electricidad para entrenarse, produciendo más de 50 libras de CO2.

Los modelos más recientes, como el GPT-4o, son aún más grandes, pero OpenAI no ha hecho pública su huella exacta.

Además del ChatGPT de OpenAI, tienes el asistente de IA de Meta, que probablemente funciona con modelos Llama 3.2 (parámetros 11B o 90B).

Una vez más, no se dispone de cifras exactas sobre las emisiones de CO2.

El Sonnet Claude 3.5 de Anthropic pesa mucho más, unos 400.000 millones de parámetros, sin que se haya revelado su huella de carbono exacta.

¿Y el Gemini de Google? Con las variantes "Flash" y "Pro", aunque Google no ha revelado los parámetros exactos.

Aun así, podemos deducir que están en la misma línea que la GPT-4o o sus variantes mini.

Y hablando de modelos simplificados, DeepSeek-V3 se muestra con sólo 37.000 millones de parámetros activos (de un total de 671.000). 

Su variante de razonamiento R1 muestra un gran rendimiento a la vez que sorbe la energía con más delicadeza por token que GPT-4o. 

¿Cómo se compara ChatGPT con otras herramientas?

Llegados a este punto, deberías saber que la cantidad de energía que consume ChatGPT depende de la versión con la que estés interactuando, de la duración de los avisos y de la mecánica bajo el capó. 

En comparación con el universo más amplio de herramientas de IA, ChatGPT se sitúa en la media en cuanto a consumo energético, especialmente en los modelos de gama alta. 

Pero cuando se trata de la cuota de mercado y la frecuencia de uso, incluso la "media" se traduce en una enorme huella energética a escala.

Uso de la energía frente a la búsqueda en Google

En 2009, Google estima que el coste energético de una única consulta de búsqueda es de 0,3 Wh.

Si avanzamos hasta 2024, esa estimación se ha desvanecido.

Resulta que las búsquedas actuales en Google consumen 10 veces menos energía que aquellas primeras estimaciones. 

Mientras tanto, las estimaciones anteriores de energía para una petición LLM media, incluyendo ChatGPT, también eran unas 10 veces demasiado altas (2,9 Wh).

Con las últimas investigaciones que consumo de energía de Google a 0,04 Wh y ChatGPT a 0,3 Wh, estos dos errores se anulan mutuamente, lo que significa que el viejo "los LLM consumen unas 10 veces más energía por consulta que Google Search" sigue siendo válido... pero sólo porque todo el mundo se equivocó en el sentido justo. 

¿Qué hace OpenAI para reducir el impacto?

OpenAI es plenamente consciente de que entrenar y ejecutar modelos como ChatGPT consume energía a un ritmo significativamente más rápido. 

Lo que nos lleva a la pregunta: ¿qué se está haciendo al respecto?

En primer lugar, OpenAI ha estado impulsando mejoras de eficiencia. 

Con el tiempo, los nuevos modelos, como GPT-4o, y ahora GPT-4.1se han optimizado específicamente para reducir significativamente el consumo de energía durante la inferencia. 

Los avances en la arquitectura de modelos, la gestión de tokens y las mejoras en el hardware a nivel de servidor hacen que, hoy en día, la cantidad de energía que consume una consulta ChatGPT sea ya muy inferior a la que habría consumido incluso hace un año para la misma tarea.

OpenAI también está asociada con Microsoft Azure, y Azure se ha comprometido a que sus centros de datos funcionen con energía renovable 100% para 2025

Esto es importante porque cuando lanzas consultas a ChatGPT, estás haciendo ping a los superordenadores Azure de los que hablábamos antes. 

Cambiar la fuente de energía de los combustibles fósiles a las energías renovables no reduce directamente la potencia en vatios de una consulta, pero sí disminuye radicalmente la huella de carbono asociada a ella.

Más allá de la infraestructura, hay otras cosas de cara al futuro. OpenAI investiga activamente formas de reducir el tamaño de los modelos sin sacrificar el rendimiento.

La compresión de modelos, la destilación y un enrutamiento más inteligente (como el procesamiento dinámico de tokens) son temas muy candentes en los círculos de eficiencia de la IA. 

¿Qué puede hacer usted como usuario?

Mientras OpenAI se ocupa de los grandes cambios estructurales, los usuarios siguen teniendo un papel que desempeñar a la hora de minimizar los residuos y utilizar ChatGPT de forma responsable. 

Esto es lo que puedes hacer:

  • Sé conciso: Enmarque sus peticiones de forma clara y ajustada. Cada ficha extra procesada cuesta un poco de energía.
  • Evita el spam: Resista la tentación de presentar 15 versiones ligeramente reformuladas de la misma pregunta.
  • Utilice modelos adecuados: Cuando sea posible, elija modelos más ligeros y baratos (como GPT-4o-mini, si se ofrece) para tareas ocasionales o ligeras.
  • Agrupe sus solicitudes: En lugar de un montón de preguntas fragmentadas, consolídalas en una sola bien pensada.

Si quieres reducir las interminables repeticiones y regeneraciones, lo más inteligente es utilizar herramientas específicas que generen contenidos más limpios y listos para publicar desde los primeros intentos.

Aquí es donde IA indetectable herramientas como Escritor furtivo o Parafraseador entra. 

En lugar de pedir a ChatGPT esa versión perfecta de su texto a través de múltiples ediciones y reintentos (cada uno de los cuales cuesta más energía), puede utilizar simplemente nuestras herramientas especializadas creadas para la precisión. 

Las herramientas diseñadas para acciones específicas suelen rendir más y todas las nuestras encajan perfectamente en este modelo de uso inteligente y consciente de la energía. 

En otras palabras, resultados más limpios en menos intentos = menos energía quemada = servidores más contentos = usted salva el mundo, párrafo a párrafo.

¿Listo para ver la diferencia? ¡Pon en marcha nuestro Detector de IA y Humanizador en el widget de abajo!

Preguntas frecuentes: ChatGPT y uso de la energía

¿Cuánta energía consume una solicitud de ChatGPT?

Una consulta típica de ChatGPT, especialmente cuando se utiliza GPT-4o, consume unos 0,3 vatios-hora.

Esto se basa en estimaciones más recientes y precisas que reflejan las mejoras en la eficiencia del hardware y la arquitectura del modelo. 

Las estimaciones anteriores eran de unos 3 vatios-hora por consulta, pero esas cifras se basaban en tecnología y supuestos más antiguos.

Por tanto, la cantidad de energía que consume hoy una solicitud de ChatGPT es mucho menor que antes.

¿Consume más energía la formación que su uso?

Por supuesto. Entrenar un modelo como ChatGPT consume una enorme cantidad de energía, mucho más que ejecutarlo para las consultas cotidianas.

El entrenamiento implica el procesamiento de enormes conjuntos de datos durante semanas o meses en miles de GPU, lo que se traduce en una huella de carbono inicial muy grande.

En cambio, el uso del modelo (inferencia) consume cantidades relativamente pequeñas de energía por petición.

¿Publica OpenAI datos sobre sostenibilidad?

No, OpenAI no publica actualmente informes de sostenibilidad detallados ni estadísticas completas sobre el uso de la energía.

Aunque colaboran estrechamente con Microsoft Azure, que tiene sus propios objetivos e informes de sostenibilidad, OpenAI no ha publicado información exhaustiva sobre el consumo de energía o la huella de carbono de sus modelos.

Reflexiones finales: El coste energético de la IA

En conclusión, la cantidad de energía que consume ChatGPT depende en gran medida del modelo al que accedas y de cómo lo utilices. 

Pero, en general, está claro que los nuevos modelos son cada vez más eficientes y que la industria está haciendo verdaderos esfuerzos por reducir el impacto ambiental.

Dicho esto, elegir la herramienta adecuada para cada tarea puede marcar una diferencia significativa en su huella digital. 

Flujos de trabajo más inteligentes, menos reintentos y avisos más claros contribuyen a reducir el consumo de energía. 

Y cuando se combina ChatGPT con herramientas específicas como Undetectable AI, se obtiene lo mejor de ambos mundos.

Generas contenidos limpios, pulidos y listos para publicar con menos pruebas y errores. Esto significa ahorrar tiempo, dinero y, por supuesto, un poco de planeta.

Si quiere trabajar de forma más inteligente y ecológica, inscríbase hoy en Undetectable AI.

Undetectable AI (TM)