Wie viel Energie verbraucht ChatGPT?

Wenn Sie im Internet nach Antworten auf die Frage suchen, wie viel Energie ChatGPT verbraucht, werden Sie wahrscheinlich etwas Ähnliches finden:

"ChatGPT verbraucht 10-mal mehr Strom als eine Google-Suche".

Wenn Sie der Spur folgen, führt diese Behauptung zu einer 170-seitiger IEA-Berichtdie auf ein Papier verweist, das eine wahrscheinliche Schätzung eines Alphabet-Vorsitzenden zitiert... basierend auf Daten aus dem Jahr 2009. Igitt!

In Wirklichkeit sind die neueren Suchvorgänge von Google etwa 10-mal effizienter als 2009, und der tatsächliche Energieverbrauch von ChatGPT pro Anfrage ist heute weitaus geringer, als die ersten Alarmglocken vermuten ließen.

Neuere Modelle wie das GPT-4o haben große Fortschritte bei der Effizienz gemacht, was bedeutet, dass die kursierenden Schlagzeilen veraltet und, ehrlich gesagt, ein wenig irreführend sind.

Wie sieht es also wirklich aus? Das ist genau das, was wir hier untersuchen.

Das werden Ihre Mitbringsel sein:

  • Was treibt ChatGPT unter der Haube an?
  • Wie viel Energie verbraucht eine ChatGPT-Suche?
  • Wie viel Energie verbraucht es im Vergleich zur Google-Suche und anderen KI-Modellen?
  • Was tut OpenAI, um seine Auswirkungen zu verringern?
  • Welche Schritte können Sie als Nutzer unternehmen, um Ihre KI-Nutzung verantwortungsvoller zu gestalten?

Kommen wir zur Sache.

Was treibt ChatGPT an?

Mark Russinovich, CTO von Microsoft Azure, hat uns einen Blick hinter den Vorhang gewährt in einem Podcast dass Microsoft veröffentlicht im Jahr 2023

Ihm zufolge hat Microsoft eine Infrastruktur aufgebaut, die in der Lage ist, Modelle mit Hunderten von Milliarden von Parametern zu trainieren. 

GPT-3 zum Beispiel hatte 175 Milliarden Parameter, was schon zu viel klingt, bis man hört, dass Microsofts Megatron-Turing-Modell mit 530 Milliarden zurechtkam.

Machen Sie sich nie wieder Sorgen, dass KI Ihre Texte erkennt. Undetectable AI Kann Ihnen helfen:

  • Lassen Sie Ihr AI-unterstütztes Schreiben erscheinen menschenähnlich.
  • Bypass alle wichtigen KI-Erkennungstools mit nur einem Klick.
  • Verwenden Sie AI sicher und zuversichtlich in Schule und Beruf.
Kostenlos testen

Der ursprüngliche OpenAI-Supercomputer 2020 verfügte über 285.000 über InfiniBand verbundene AMD-CPU-Kerne und 10.000 NVIDIA V100 Tensor Core GPUs. 

Die neue H100 Virtual Machine Serie clustert bis zu acht NVIDIA H100 Tensor Core GPUs pro VM und skaliert auf Tausende. 

Kurz gesagt, wenn Sie sich fragen, was ChatGPT antreibt, lautet die Antwort im Grunde: alles.

Alle Kerne, alle GPUs, die gesamte Netzwerkbandbreite, die Sie jemals in Ihren Träumen horten könnten.

Geschätzter Energieverbrauch von ChatGPT

Nun zur eigentlichen Frage: Wie viel Energie verbraucht ChatGPT pro Frage? 

Man könnte erwarten, dass es apokalyptisch ist und mit jeder Eingabeaufforderung Gletscher schmelzen lässt. 

Jüngste Schätzungen besagen jedoch, dass eine typische ChatGPT-Abfrage auf GPT-4o etwa 0,3 Wattstunden (Wh) verbraucht. 

Das ist etwa zehnmal weniger als ältere (und wahrscheinlich ungenaue) Schätzungen von Anfang 2023, die von 3 Wattstunden ausgingen. 

Der Effizienzsprung ist auf bessere Modelle, schärfere Hardware und die Erkenntnis zurückzuführen, dass frühere Schätzungen der Token-Anzahl viel zu pessimistisch waren.

Zum Vergleich: 0,3 Wattstunden sind weniger Energie, als Ihr Laptop verbraucht, während Sie Ihren Kaffee aufwärmen. 

Selbst wenn Sie den ganzen Tag über viele Anfragen stellen, sind die Zahlen für den Energieverbrauch von ChatGPT pro Tag immer noch ziemlich zahm im Vergleich zum Betrieb Ihrer Klimaanlage oder Ihres Spiele-PCs. Aber das ist nur Ihr Verbrauch.

Die Nutzerbasis von OpenAI lag im Februar bei über 400 Millionen wöchentlichen Nutzern, wie aus einer Ein OpenAI-Sprecher sagte gegenüber Reuters. Das wären also eine Menge Wattstunden, selbst wenn man sparsam damit umgeht.

Es ist wichtig zu beachten, dass diese 0,3 Wattstunden immer noch ein wenig zu vorsichtig sind. 

Viele alltägliche Fragen sind wahrscheinlich billiger als das.

Aber Abfragen, die große Mengen an Eingaben, umfangreiche Ausgaben oder schwerfällige Schlussfolgerungsmodelle beinhalten, können den Verbrauch noch viel höher treiben.

Energieverbrauch: GPT-4 gegenüber GPT-3.5

Auch wenn GPT-3.5 nicht mehr weiterentwickelt wird, bleibt sein Erbe bestehen, insbesondere wenn wir darüber diskutieren, wie viel Energie ChatGPT in den verschiedenen Versionen verbraucht.

Die folgenden Daten geben Aufschluss über den Energieverbrauch im Vergleich zum GPT-4.

Bei einem Modell vom Typ GPT-3 mit etwa 175 Milliarden Parametern waren die Emissionen bereits hoch, aber der Wechsel zu einem Modell vom Typ GPT-4 mit seiner schwereren Architektur könnte die Emissionen um das 200-fache erhöhen. 

Nach Ansicht von George HotzGPT-4 besteht aus acht Instanzen eines 220B-Parameter-GPT-3-ähnlichen Modells, die zusammengefügt wurden. 

Wichtig ist jedoch, dass nur zwei dieser Modelle während der Inferenz tatsächlich geroutet werden, was bedeutet, dass die eigentliche Aktion mit etwa 280B effektiven Parametern stattfindet, wenn man die gemeinsame Nutzung einiger Parameter berücksichtigt (~55B für Aufmerksamkeitsmechanismen).

Vergleichen Sie das mit dem 175B-Setup von GPT-3.5, und Sie beginnen zu verstehen, warum die Inferenzkosten von GPT-4 bis zu dreimal höher sind. 

Der Anstieg des Energieverbrauchs übertrifft die bloße Zunahme der Parameterzahl, die nur einen Anstieg um das 1,6-fache hätte erwarten lassen. 

Aber das ist nicht passiert, denn die Abfragen der GPT-4 sind einfach viel teurer. 

Der Kohlenstoff-Fußabdruck von AI-Modellen

Der Betrieb großer KI-Modelle ist nicht billig, weder für den Planeten noch für die Stromrechnung.

Diese Modelle benötigen viel Rechenleistung, was eine Menge Strom und in vielen Fällen auch eine Menge Emissionen bedeutet.

So benötigte der GPT-3 Berichten zufolge rund 1.287 MWh Strom für die Ausbildung, Produktion von über 50 Pfund CO2.

Neuere Modelle wie der GPT-4o sind sogar noch größer, aber OpenAI hat ihre genaue Grundfläche nicht veröffentlicht.

Neben ChatGPT von OpenAI gibt es noch den KI-Assistenten von Meta, der wahrscheinlich auf Llama 3.2-Modellen (entweder 11B- oder 90B-Parameter) läuft.

Auch hier sind keine genauen Zahlen zu den CO2-Emissionen verfügbar.

Das Sonnet Claude 3.5 von Anthropic wiegt wesentlich schwerer, schätzungsweise 400 Milliarden Parameter, ohne dass sein genauer Kohlenstoff-Fußabdruck bekannt ist.

Und Googles Gemini? Angetrieben durch die "Flash"- und "Pro"-Varianten, wobei Google keine genauen Parameterzahlen bekannt gegeben hat.

Wir können immer noch davon ausgehen, dass sie mit dem GPT-4o oder seinen Mini-Varianten vergleichbar sind.

Apropos schlanke Modelle: DeepSeek-V3 kommt mit nur 37 Milliarden aktiven Parametern aus (von insgesamt 671 B). 

Seine R1-Variante zeigt eine starke Leistung und verbraucht pro Token weniger Energie als GPT-4o. 

Wie schneidet ChatGPT im Vergleich zu anderen Tools ab?

An dieser Stelle sollten Sie wissen, dass der Energieverbrauch von ChatGPT von der Version abhängt, mit der Sie interagieren, von der Länge der Eingabeaufforderungen und von den Mechanismen unter der Haube. 

Verglichen mit dem größeren Universum der KI-Tools ist ChatGPT in Bezug auf den Energiebedarf etwa durchschnittlich, insbesondere bei High-End-Modellen. 

Aber wenn es um den schieren Marktanteil und die Häufigkeit der Nutzung geht, bedeutet selbst "durchschnittlich" einen enormen Energie-Fußabdruck in großem Maßstab.

Energieverbrauch im Vergleich zur Google-Suche

Damals im Jahr 2009, Google schätzt die Energiekosten für eine einzige Suchanfrage auf 0,3 Wh.

Spulen Sie bis 2024 vor, und diese Schätzung ist inzwischen verstaubt.

Es hat sich herausgestellt, dass die heutige Google-Suche etwa 10 Mal weniger Energie verbraucht als die ersten Schätzungen. 

In der Zwischenzeit waren frühere Energieschätzungen für eine durchschnittliche LLM-Anfrage, einschließlich ChatGPT, ebenfalls etwa 10x zu hoch (2,9 Wh).

Mit den neuesten Forschungsergebnissen, die die Energieverbrauch von Google bei 0,04 Wh und ChatGPT bei 0,3 Wh, diese beiden Fehler heben sich gegenseitig auf, was bedeutet, dass die alte "LLMs verbrauchen etwa 10x mehr Energie pro Abfrage als die Google-Suche" immer noch gilt... aber nur, weil jeder auf genau die richtige Weise falsch lag. 

Was unternimmt OpenAI, um die Auswirkungen zu verringern?

OpenAI ist sich darüber im Klaren, dass das Trainieren und Ausführen von Modellen wie ChatGPT deutlich mehr Energie verbraucht. 

Das bringt uns zu der Frage: Was wird dagegen unternommen?

Zunächst einmal hat OpenAI die Effizienzsteigerung vorangetrieben. 

Im Laufe der Zeit wurden neuere Modelle, wie das GPT-4o und jetzt GPT-4.1wurden speziell für einen deutlich geringeren Energieverbrauch während der Inferenz optimiert. 

Fortschritte bei der Modellarchitektur, der Token-Verarbeitung und Verbesserungen der Hardware auf Serverebene bedeuten, dass der Energieverbrauch einer ChatGPT-Abfrage heute bereits weitaus geringer ist als noch vor einem Jahr für dieselbe Aufgabe.

OpenAI arbeitet auch mit Microsoft Azure zusammen, und Azure hat sich verpflichtet, seine Rechenzentren bis 2025 mit 100% erneuerbarer Energie zu betreiben

Das ist wichtig, denn wenn Sie Abfragen an ChatGPT stellen, pingen Sie die Azure-Supercomputer an, über die wir bereits gesprochen haben. 

Die Verlagerung der Energiequelle weg von fossilen Brennstoffen hin zu erneuerbaren Energien verringert zwar nicht direkt die von einer Abfrage verbrauchte Wattzahl, aber sie verringert den damit verbundenen Kohlenstoff-Fußabdruck radikal.

Abgesehen von der Infrastruktur gibt es noch einige weitere zukunftsweisende Dinge zu tun. OpenAI erforscht aktiv Möglichkeiten, Modelle zu verkleinern, ohne die Leistung zu beeinträchtigen.

Modellkomprimierung, Destillation und intelligenteres Routing (z. B. dynamische Token-Verarbeitung) sind in KI-Effizienzkreisen sehr aktuelle Themen. 

Was können Sie als Nutzer tun?

Während OpenAI für die großen strukturellen Veränderungen zuständig ist, müssen die Nutzer immer noch eine Rolle dabei spielen, Abfall zu minimieren und ChatGPT verantwortungsvoll zu nutzen. 

Das können Sie tun:

  • Fassen Sie sich kurz: Formulieren Sie Ihre Aufforderungen klar und knapp. Jedes zusätzliche Token, das verarbeitet wird, kostet ein bisschen Energie.
  • Vermeiden Sie spammige Aufforderungen: Widerstehen Sie der Versuchung, 15 leicht umformulierte Versionen derselben Frage einzureichen.
  • Verwenden Sie geeignete Modelle: Wählen Sie nach Möglichkeit leichtere, billigere Modelle (wie das GPT-4o-mini, falls angeboten) für gelegentliche oder leichte Aufgaben.
  • Stapeln Sie Ihre Anfragen: Fassen Sie die Fragen in einer einzigen, gut durchdachten Aufforderung zusammen, anstatt sie zu verstreuen.

Wenn Sie endlose Wiederholungen und Neugenerierungen vermeiden möchten, sollten Sie spezielle Tools verwenden, die bereits bei den ersten Versuchen saubere, veröffentlichungsreife Inhalte erzeugen.

Dies ist der Ort, an dem Nicht nachweisbare AI Werkzeuge wie Stealth Writer oder Paraphrasierer komm rein. 

Anstatt ChatGPT zu bitten, die perfekte Version Ihres Textes durch mehrere Bearbeitungen und Wiederholungen (die jeweils mehr Energie kosten) zu erstellen, können Sie einfach unsere spezialisierten Werkzeuge verwenden, die auf Präzision ausgelegt sind. 

Werkzeuge, die für bestimmte Aufgaben entwickelt wurden, arbeiten im Allgemeinen effizienter, und alle unsere Werkzeuge passen genau in dieses Modell der intelligenten, energiebewussten Nutzung. 

Mit anderen Worten: sauberer Output in weniger Versuchen = weniger Energieaufwand = zufriedenere Server = Sie retten die Welt, ein knackiger Absatz nach dem anderen.

Sind Sie bereit, den Unterschied zu sehen? Starten Sie unseren KI-Detektor und Humanizer mit dem Widget unten!

FAQs: ChatGPT und Energienutzung

Wie viel Energie verbraucht eine ChatGPT-Anfrage?

Eine typische ChatGPT-Abfrage, insbesondere bei Verwendung von GPT-4o, verbraucht etwa 0,3 Wattstunden.

Dies basiert auf neueren und genaueren Schätzungen, die Verbesserungen der Hardware-Effizienz und der Modellarchitektur widerspiegeln. 

Frühere Schätzungen lagen bei etwa 3 Wattstunden pro Abfrage, aber diese Zahlen beruhten auf älteren Technologien und Annahmen.

Die Frage, wie viel Energie eine ChatGPT-Anfrage verbraucht, ist heute also viel niedriger als früher.

Ist die Ausbildung energieaufwändiger als die Nutzung?

Ja, absolut. Das Trainieren eines Modells wie ChatGPT verbraucht eine enorme Menge an Energie, weit mehr als bei alltäglichen Abfragen.

Das Training erfordert die Verarbeitung riesiger Datensätze über Wochen oder Monate auf Tausenden von GPUs, was zu einem sehr großen Kohlenstoff-Fußabdruck im Vorfeld führt.

Im Gegensatz dazu verbraucht die Verwendung des Modells (Inferenz) relativ wenig Energie pro Anfrage.

Veröffentlicht OpenAI Nachhaltigkeitsdaten?

Nein, OpenAI veröffentlicht derzeit keine detaillierten öffentlichen Nachhaltigkeitsberichte oder vollständige Energieverbrauchsstatistiken.

Während sie eng mit Microsoft Azure zusammenarbeiten, das seine eigenen Nachhaltigkeitsziele und -berichte hat, hat OpenAI selbst keine umfassenden Angaben über den Energieverbrauch oder den CO2-Fußabdruck seiner Modelle gemacht.

Abschließende Überlegungen: Die Energiekosten der KI

Wie viel Energie ChatGPT verbraucht, hängt also stark davon ab, auf welches Modell Sie zugreifen und wie Sie es nutzen. 

Insgesamt ist jedoch klar, dass neuere Modelle immer effizienter werden und die Industrie echte Anstrengungen unternimmt, um die Umweltauswirkungen zu verringern.

Dennoch kann die Wahl des richtigen Tools für die richtige Aufgabe einen bedeutenden Unterschied für Ihren digitalen Fußabdruck ausmachen. 

Intelligentere Arbeitsabläufe, weniger Wiederholungsversuche und klarere Aufforderungen sorgen für einen geringeren Energieverbrauch. 

Und wenn Sie ChatGPT mit speziell entwickelten Tools wie Undetectable AI kombinieren, erhalten Sie das Beste aus beiden Welten.

Sie erstellen saubere, ausgefeilte und veröffentlichungsfertige Inhalte mit weniger Fehlversuchen. Das bedeutet, dass Sie Zeit, Computer und auch ein bisschen die Erde sparen.

Wenn Sie intelligenter und umweltfreundlicher arbeiten wollen, Melden Sie sich noch heute für Undetectable AI an.

Undetectable AI (TM)