Si vous cherchez sur Internet des réponses à la question de savoir combien d'énergie consomme le ChatGPT, vous trouverez probablement quelque chose comme ceci :
"ChatGPT consomme 10 fois plus d'électricité qu'une recherche sur Google.
Si vous suivez la piste, cette revendication mène à une Rapport de 170 pages de l'AIEqui renvoie à un document citant une estimation probable d'un président d'Alphabet... basée sur des données de 2009. Aie, aie, aie !
En réalité, les nouvelles opérations de recherche de Google sont environ 10 fois plus efficaces qu'en 2009, et la consommation d'énergie réelle de ChatGPT par requête est aujourd'hui bien inférieure à ce que les premières sonnettes d'alarme suggéraient.
Les modèles plus récents comme le GPT-4o ont fait des progrès considérables en matière d'efficacité, ce qui signifie que les chiffres qui circulent sont dépassés et, honnêtement, un peu trompeurs.
Qu'en est-il réellement ? C'est exactement ce à quoi nous allons nous intéresser ici.
Vous en tirerez les enseignements suivants :
- Qu'est-ce qui fait fonctionner ChatGPT sous le capot ?
- Quelle est la consommation d'énergie d'une recherche ChatGPT ?
- Quelle est sa consommation d'énergie par rapport à Google Search et à d'autres modèles d'IA ?
- Que fait OpenAI pour réduire son impact ?
- Quelles mesures pouvez-vous prendre en tant qu'utilisateur pour rendre votre utilisation de l'IA plus responsable ?
Entrons dans le vif du sujet.
Quels sont les pouvoirs de ChatGPT ?
Mark Russinovich, directeur technique de Microsoft Azure, nous a donné un aperçu de ce qui se passe derrière le rideau. dans un podcast que Microsoft publié en 2023.
Selon lui, Microsoft a construit une infrastructure capable d'entraîner des modèles avec des centaines de milliards de paramètres.
GPT-3, par exemple, comptait 175 milliards de paramètres, ce qui semble déjà trop, jusqu'à ce que l'on apprenne que le modèle Megatron-Turing de Microsoft en comptait 530 milliards.
Ne vous inquiétez plus jamais de la détection de vos messages par l'IA. Undetectable AI peut vous aider :
- Faites apparaître votre écriture assistée par l'IA à l'image de l'homme.
- By-pass tous les principaux outils de détection de l'IA en un seul clic.
- Utilisation AI en toute sécurité et en toute confiance à l'école et au travail.
Sur le plan matériel, le supercalculateur OpenAI 2020 original réunissait plus de 285 000 cœurs de CPU AMD InfiniBand et 10 000 GPU NVIDIA V100 Tensor Core.
La nouvelle série de machines virtuelles H100 regroupe jusqu'à huit GPU NVIDIA H100 Tensor Core par VM et s'étend jusqu'à des milliers.
En bref, si vous vous demandez ce qui fait fonctionner ChatGPT, la réponse est essentiellement : tout cela.
Tous les cœurs, tous les GPU, toute la bande passante du réseau que vous pourriez accumuler dans vos rêves.
Estimation de la consommation d'énergie de ChatGPT
Passons maintenant à la vraie question : combien d'énergie ChatGPT consomme-t-il par question ?
On pourrait s'attendre à ce qu'il soit apocalyptique, comme s'il faisait fondre les glaciers à chaque fois que l'on tape une invite.
En réalité, selon des estimations récentes, une requête ChatGPT typique sur GPT-4o consomme environ 0,3 wattheure (Wh).
C'est environ dix fois moins que les estimations plus anciennes (et probablement inexactes) du début de l'année 2023, qui l'évaluaient à 3 wattheures.
L'amélioration de l'efficacité est due à de meilleurs modèles, à un matériel plus performant et à la prise de conscience du fait que les anciennes estimations étaient beaucoup trop pessimistes en ce qui concerne le nombre de jetons.
À titre d'exemple, 0,3 wattheure représente moins d'énergie que ce que votre ordinateur portable consomme pendant que vous réchauffez votre café.
Même si vous effectuez des requêtes lourdes toute la journée, la quantité d'énergie consommée par ChatGPT par jour reste assez faible par rapport à l'utilisation d'un climatiseur ou d'un PC de jeu, par exemple. Mais il ne s'agit là que de votre utilisation.
La base d'utilisateurs d'OpenAI s'élevait à plus de 400 millions par semaine en février, si l'on en croit les chiffres d'une enquête de la Commission européenne. Un porte-parole d'OpenAI a déclaré à Reuters. Cela représente donc beaucoup de wattheures, même si l'on est efficace.
Il est important de noter que ce chiffre de 0,3 wattheure est encore un peu prudent.
De nombreuses requêtes quotidiennes sont probablement moins chères que cela.
Mais les requêtes qui impliquent des quantités massives d'entrées, des sorties étendues ou des modèles de raisonnement lourds peuvent encore faire grimper la consommation.
Consommation d'énergie : GPT-4 vs GPT-3.5
Même si GPT-3.5 a été supprimé, son héritage perdure, en particulier lorsque nous discutons de la quantité d'énergie utilisée par ChatGPT d'une version à l'autre.
Voici ce que disent les données sur sa consommation d'énergie par rapport au GPT-4.
Pour un modèle de type GPT-3 comportant environ 175 milliards de paramètres, les émissions étaient déjà importantes, mais le passage à un modèle de type GPT-4 avec son architecture plus lourde pourrait multiplier les émissions par 200 environ.
Selon George HotzLe modèle GPT-4 est constitué de huit exemplaires d'un modèle GPT-3 de 220B-paramètres assemblés.
Mais surtout, seuls deux de ces modèles sont effectivement acheminés pendant l'inférence, ce qui signifie que l'action réelle se produit avec environ 280B paramètres effectifs une fois que l'on tient compte d'un certain partage des paramètres (~55B pour les mécanismes d'attention).
Comparez cela à la configuration 175B de GPT-3.5, et vous commencerez à comprendre pourquoi les coûts d'inférence de GPT-4 sont jusqu'à trois fois plus élevés.
La croissance de la consommation d'énergie dépasse la simple augmentation du nombre de paramètres, qui n'aurait dû suggérer qu'une augmentation de 1,6 fois.
Mais ce n'est pas ce qui s'est passé, car les requêtes de GPT-4 sont tout simplement beaucoup plus chères.
L'empreinte carbone des modèles d'IA
L'exploitation de grands modèles d'IA n'est pas bon marché, ni pour la planète ni pour la facture d'électricité.
Ces modèles nécessitent une puissance de calcul importante, ce qui signifie beaucoup d'électricité et, dans de nombreux cas, beaucoup d'émissions.
Par exemple, le GPT-3 aurait nécessité environ 1 287 MWh d'électricité pour s'entraîner, produisant plus de 50 livres de CO2.
Des modèles plus récents comme le GPT-4o sont encore plus grands, mais OpenAI n'a pas publié leur empreinte exacte.
Outre le ChatGPT d'OpenAI, il y a l'assistant IA de Meta, qui fonctionne probablement sur des modèles Llama 3.2 (paramètres 11B ou 90B).
Là encore, les chiffres exacts des émissions de CO2 ne sont pas disponibles.
Le Sonnet Claude 3.5 d'Anthropic pèse beaucoup plus lourd, estimé à environ 400 milliards de paramètres sans que son empreinte carbone exacte ne soit divulguée.
Et le Gemini de Google ? Il est alimenté par les variantes "Flash" et "Pro", bien que Google n'ait pas révélé les paramètres exacts.
On peut néanmoins en déduire qu'ils sont du même ordre que le GPT-4o ou ses mini-variantes.
En ce qui concerne les modèles simplifiés, DeepSeek-V3 n'utilise que 37 milliards de paramètres actifs (sur un total de 671 milliards).
Sa variante de raisonnement R1 affiche de bonnes performances tout en consommant l'énergie plus délicatement par jeton que GPT-4o.
Comment ChatGPT se compare-t-il à d'autres outils ?
À ce stade, vous devez savoir que la quantité d'énergie consommée par ChatGPT dépend de la version avec laquelle vous interagissez, de la durée des invites et des mécanismes sous-jacents.
Par rapport à l'ensemble des outils d'IA, ChatGPT se situe dans la moyenne en termes de demande d'énergie, en particulier pour les modèles haut de gamme.
Mais lorsqu'il s'agit de la part de marché et de la fréquence d'utilisation, même la "moyenne" se traduit par une empreinte énergétique massive à grande échelle.
Consommation d'énergie et recherche sur Google
Retour en 2009, Google a estimé que le coût énergétique d'une seule requête de recherche est de 0,3 Wh.
En 2024, cette estimation est devenue poussiéreuse.
Il s'avère que les recherches effectuées aujourd'hui sur Google consomment environ 10 fois moins d'énergie que ces premières estimations.
Par ailleurs, les estimations antérieures de la consommation d'énergie pour une requête LLM moyenne, y compris ChatGPT, étaient également 10 fois trop élevées (2,9 Wh).
Les recherches les plus récentes mettent en évidence la consommation d'énergie de Google à 0,04 Wh et ChatGPT à 0,3 Wh, ces deux erreurs s'annulent l'une l'autre, ce qui signifie que la vieille théorie selon laquelle les LLM utilisent environ 10 fois plus d'énergie par requête que Google Search tient toujours... mais seulement parce que tout le monde s'est trompé de la bonne manière.
Que fait OpenAI pour réduire son impact ?
OpenAI est tout à fait consciente que l'entraînement et le fonctionnement de modèles tels que ChatGPT consomment de l'énergie à un rythme nettement plus rapide.
Ce qui nous amène à la question suivante : que fait-on à ce sujet ?
Tout d'abord, OpenAI a mis l'accent sur l'amélioration de l'efficacité.
Au fil du temps, de nouveaux modèles, comme le GPT-4o, et maintenant le GPT-4.1ont été spécifiquement optimisés pour réduire considérablement la consommation d'énergie pendant l'inférence.
Les progrès réalisés en matière d'architecture de modèle, de traitement des jetons et d'amélioration du matériel au niveau du serveur signifient qu'aujourd'hui, la quantité d'énergie consommée par une requête ChatGPT est déjà bien inférieure à ce qu'elle aurait été il y a un an pour la même tâche.
OpenAI est également partenaire de Microsoft Azure, et Azure s'est engagé à faire fonctionner ses centres de données avec 100% d'énergie renouvelable d'ici 2025..
C'est important car lorsque vous lancez des requêtes sur ChatGPT, vous interrogez les supercalculateurs Azure dont nous avons parlé précédemment.
L'abandon des combustibles fossiles au profit des énergies renouvelables ne réduit pas directement la puissance d'une requête, mais elle diminue radicalement l'empreinte carbone qui y est associée.
Au-delà de l'infrastructure, d'autres projets d'avenir sont en cours. OpenAI recherche activement des moyens de réduire la taille des modèles sans sacrifier les performances.
La compression de modèles, la distillation et le routage plus intelligent (comme le traitement dynamique des jetons) sont des sujets très actuels dans les cercles d'efficacité de l'IA.
Que pouvez-vous faire en tant qu'utilisateur ?
Tandis que l'OpenAI s'occupe des grands changements structurels, les utilisateurs ont toujours un rôle à jouer dans la réduction des déchets et l'utilisation responsable de ChatGPT.
Voici ce que vous pouvez faire :
- Soyez concis : Encadrez vos messages de manière claire et précise. Chaque jeton supplémentaire traité coûte un peu d'énergie.
- Évitez de spammer les messages : Résistez à la tentation de soumettre 15 versions légèrement reformulées de la même question.
- Utiliser des modèles appropriés : Dans la mesure du possible, choisissez des modèles plus légers et moins chers (comme le GPT-4o-mini, s'il est proposé) pour les tâches occasionnelles ou légères.
- Regroupez vos demandes : Au lieu d'une série de questions fragmentées, regroupez-les en un seul message bien pensé.
Si vous souhaitez réduire le nombre de re-promptions et de re-générations, il est judicieux d'utiliser des outils spécialisés qui génèrent un contenu plus propre et prêt à être publié dès les premières tentatives.
C'est ici que IA indétectable des outils tels que Rédacteur furtif ou Paraphraseur viens.
Au lieu de demander à ChatGPT une version parfaite de votre texte par le biais de multiples éditions et tentatives (qui coûtent chacune plus d'énergie), vous pouvez simplement utiliser nos outils spécialisés conçus pour la précision.
Les outils conçus pour des actions spécifiques sont généralement plus efficaces et tous nos outils s'inscrivent dans ce modèle d'utilisation intelligente et respectueuse de l'énergie.
En d'autres termes, une production plus propre en moins d'essais = moins d'énergie brûlée = des serveurs plus heureux = vous sauvez le monde, un paragraphe croustillant à la fois.
Prêt à voir la différence ? Lancez notre AI Detector et Humanizer dans le widget ci-dessous !
FAQs : ChatGPT et consommation d'énergie
Quelle est la quantité d'énergie consommée par une demande de ChatGPT ?
Une requête ChatGPT typique, en particulier lorsque GPT-4o est utilisé, consomme environ 0,3 wattheure.
Ces chiffres sont basés sur des estimations plus récentes et plus précises qui reflètent les améliorations apportées à l'efficacité du matériel et à l'architecture du modèle.
Les estimations précédentes faisaient état d'environ 3 wattheures par requête, mais ces chiffres étaient basés sur des technologies et des hypothèses plus anciennes.
Ainsi, la consommation d'énergie d'une demande de ChatGPT est aujourd'hui bien inférieure à ce qu'elle était auparavant.
La formation est-elle plus énergivore que l'utilisation ?
Oui, absolument. L'entraînement d'un modèle tel que ChatGPT consomme une énorme quantité d'énergie, bien plus que son exécution pour les requêtes quotidiennes.
La formation implique le traitement d'énormes ensembles de données pendant des semaines ou des mois sur des milliers de GPU, ce qui se traduit par une empreinte carbone initiale très importante.
En revanche, l'utilisation du modèle (inférence) consomme relativement peu d'énergie par requête.
OpenAI publie-t-elle des données sur le développement durable ?
Non, OpenAI ne publie pas actuellement de rapports publics détaillés sur le développement durable ni de statistiques complètes sur l'utilisation de l'énergie.
Bien qu'elle travaille en étroite collaboration avec Microsoft Azure, qui a ses propres objectifs et rapports en matière de développement durable, OpenAI elle-même n'a pas publié d'informations complètes sur la consommation d'énergie ou l'empreinte carbone de ses modèles.
Dernières réflexions : Le coût énergétique de l'IA
En conclusion, la quantité d'énergie consommée par le ChatGPT dépend fortement du modèle auquel vous accédez et de la manière dont vous l'utilisez.
Mais dans l'ensemble, il est clair que les nouveaux modèles sont de plus en plus efficaces et que l'industrie fait de réels efforts pour réduire l'impact sur l'environnement.
Cela dit, choisir le bon outil pour la bonne tâche peut faire une différence significative dans votre empreinte numérique.
Des flux de travail plus intelligents, moins de tentatives et des messages plus clairs permettent de réduire la consommation d'énergie.
Et lorsque vous combinez ChatGPT avec des outils spécialisés comme Undetectable AI, vous obtenez le meilleur des deux mondes.
Vous générez un contenu propre, soigné et prêt à être publié avec moins d'essais et d'erreurs. Cela signifie un gain de temps, de calcul et, oui, un peu de planète aussi.
Si vous souhaitez travailler de manière plus intelligente et plus écologique, Inscrivez-vous dès aujourd'hui à l'IA indétectable.