Ile energii zużywa ChatGPT?

Jeśli poszukasz w Internecie odpowiedzi na pytanie, ile energii zużywa ChatGPT, prawdopodobnie znajdziesz coś takiego:

"ChatGPT zużywa 10 razy więcej energii elektrycznej niż wyszukiwarka Google".

Jeśli podążysz za tropem, to roszczenie prowadzi do 170-stronicowy raport IEAktóry odsyła do artykułu cytującego prawdopodobne szacunki prezesa Alphabet... oparte na danych z 2009 roku. Rany!

W rzeczywistości nowsze operacje wyszukiwania Google są około 10 razy bardziej wydajne niż w 2009 roku, a rzeczywiste zużycie energii przez ChatGPT na żądanie jest dziś znacznie niższe niż sugerowały wczesne alarmy.

Nowsze modele, takie jak GPT-4o, poczyniły znaczne postępy w zakresie wydajności, co oznacza, że nagłówki są przestarzałe i, szczerze mówiąc, nieco mylące.

Jaki jest więc prawdziwy obraz sytuacji? To jest dokładnie to, w co się tutaj zagłębiamy.

Twoje wnioski będą następujące:

  • Co zasila ChatGPT pod maską?
  • Ile energii zużywa jedno wyszukiwanie ChatGPT?
  • Ile energii zużywa w porównaniu z wyszukiwarką Google i innymi modelami AI?
  • Co robi OpenAI, aby zmniejszyć swój wpływ?
  • Jakie kroki możesz podjąć jako użytkownik, aby korzystanie z AI było bardziej odpowiedzialne?

Przejdźmy do rzeczy.

Co daje ChatGPT?

Mark Russinovich, CTO Microsoft Azure, dał nam wgląd za kurtynę w podcaście że Microsoft opublikował w 2023 r.

Według niego Microsoft zbudował infrastrukturę zdolną do trenowania modeli z setkami miliardów parametrów. 

Na przykład GPT-3 miał 175 miliardów parametrów, co już brzmi jak zbyt wiele, dopóki nie usłyszysz, że model Megatron-Turing Microsoftu miał 530 miliardów.

Nigdy więcej nie martw się, że sztuczna inteligencja wykryje twoje teksty. Undetectable AI Może ci pomóc:

  • Spraw, by pisanie wspomagane przez sztuczną inteligencję wyglądało podobny do człowieka.
  • Obejście wszystkie główne narzędzia do wykrywania AI za pomocą jednego kliknięcia.
  • Użycie AI bezpiecznie i pewnie w szkole i pracy.
Wypróbuj ZA DARMO

Pod względem sprzętowym, oryginalny superkomputer OpenAI 2020 łączył w sobie ponad 285 000 rdzeni procesorów AMD InfiniBand oraz 10 000 procesorów graficznych NVIDIA V100 Tensor Core. 

Nowa seria maszyn wirtualnych H100 skupia do ośmiu procesorów graficznych NVIDIA H100 Tensor Core na maszynę wirtualną i skaluje się do tysięcy. 

Krótko mówiąc, jeśli zastanawiasz się, co zasila ChatGPT, odpowiedź brzmi: wszystko.

Wszystkie rdzenie, wszystkie procesory graficzne, cała przepustowość sieci, jaką tylko można sobie wymarzyć.

Szacowane zużycie energii przez ChatGPT

Teraz przejdźmy do prawdziwego pytania: ile energii zużywa ChatGPT na jedno pytanie? 

Można by się spodziewać, że będzie apokaliptyczny, jakby topił lodowce z każdym wpisanym poleceniem. 

W rzeczywistości, ostatnie szacunki mówią, że typowe zapytanie ChatGPT na GPT-4o zużywa około 0,3 watogodziny (Wh). 

To około dziesięciokrotnie mniej niż starsze (i prawdopodobnie niedokładne) szacunki z początku 2023 r., które wskazywały na 3 watogodziny. 

Skok wydajności sprowadza się do lepszych modeli, ostrzejszego sprzętu i uświadomienia sobie, że starsze szacunki były zbyt pesymistyczne co do liczby tokenów.

Dla porównania, 0,3 watogodziny to mniej energii niż zużywa laptop podczas podgrzewania kawy. 

Nawet jeśli przez cały dzień wykonujesz dużo zapytań, ilość energii zużywanej przez ChatGPT w ciągu dnia jest nadal dość niska w porównaniu, powiedzmy, do zasilania klimatyzatora lub komputera do gier. Ale to tylko twoje użycie.

Baza użytkowników OpenAI wynosiła ponad 400 milionów tygodniowo w lutym, zgodnie z danymi z Rzecznik OpenAI powiedział agencji Reuters. Byłoby to więc sporo watogodzin, nawet przy zachowaniu wysokiej wydajności.

Należy zauważyć, że ta liczba 0,3 watogodziny jest nadal nieco ostrożna. 

Wiele codziennych zapytań jest prawdopodobnie tańszych.

Jednak zapytania, które obejmują ogromne ilości danych wejściowych, obszerne dane wyjściowe lub rozbudowane modele wnioskowania, mogą znacznie zwiększyć zużycie.

Zużycie energii: GPT-4 vs GPT-3.5

Mimo że GPT-3.5 został wycofany, jego spuścizna wciąż pozostaje, zwłaszcza gdy dyskutujemy o tym, ile energii zużywa ChatGPT w różnych wersjach.

Oto, co dane mówią o zużyciu energii w porównaniu do GPT-4.

W przypadku modelu w stylu GPT-3 z około 175 miliardami parametrów emisje były już intensywne, ale przejście na model w stylu GPT-4 z jego cięższą architekturą może zwiększyć emisje o około 200 razy. 

Według George'a HotzaGPT-4 to osiem instancji modelu GPT-3 o parametrach 220B, zszytych razem. 

Ale co ważne, tylko dwa z tych modeli są faktycznie kierowane podczas wnioskowania, co oznacza, że rzeczywiste działanie ma miejsce przy około 280B efektywnych parametrów, gdy uwzględni się pewne współdzielenie parametrów (~55B dla mechanizmów uwagi).

Porównaj to z konfiguracją 175B w GPT-3.5, a zaczniesz rozumieć, dlaczego koszty wnioskowania GPT-4 są nawet trzykrotnie wyższe. 

Wzrost zużycia energii przewyższa zwykły wzrost liczby parametrów, który powinien sugerować jedynie 1,6-krotny wzrost. 

Tak się jednak nie stało, ponieważ zapytania GPT-4 są po prostu znacznie droższe. 

Ślad węglowy modeli sztucznej inteligencji

Uruchamianie dużych modeli AI nie jest tanie, ani dla planety, ani dla rachunków za prąd.

Modele te wymagają dużej mocy obliczeniowej, co oznacza dużo energii elektrycznej i, w wielu przypadkach, dużo emisji.

Dla przykładu, GPT-3 wymagał podobno około 1287 MWh energii elektrycznej do treningu, wytwarzając ponad 50 funtów CO2.

Nowsze modele, takie jak GPT-4o, są jeszcze większe, ale OpenAI nie ujawniło ich dokładnej powierzchni.

Oprócz ChatGPT OpenAI, masz asystenta AI Meta, który prawdopodobnie działa na modelach Llama 3.2 (parametry 11B lub 90B).

Ponownie, dokładne dane dotyczące emisji CO2 nie są dostępne.

Claude 3.5 Sonnet firmy Anthropic jest znacznie cięższy, szacowany na około 400 miliardów parametrów bez ujawnienia dokładnego śladu węglowego.

A Gemini Google'a? Zasilany przez warianty "Flash" i "Pro", choć Google nie ujawniło dokładnych numerów parametrów.

Nadal możemy wywnioskować, że są w tym samym przedziale co GPT-4o lub jego mini warianty.

Mówiąc o usprawnionych modelach, DeepSeek-V3 jest tutaj z zaledwie 37 miliardami aktywnych parametrów (z 671B ogółem). 

Jego wariant rozumowania R1 wykazuje wysoką wydajność, jednocześnie pobierając energię delikatniej na token niż GPT-4o. 

Jak ChatGPT wypada na tle innych narzędzi?

W tym momencie powinieneś wiedzieć, że ilość energii zużywanej przez ChatGPT zależy od wersji, z którą wchodzisz w interakcję, długości podpowiedzi i mechaniki pod maską. 

W porównaniu do szerszego uniwersum narzędzi AI, ChatGPT jest mniej więcej przeciętny pod względem zapotrzebowania na energię, zwłaszcza w przypadku modeli z wyższej półki. 

Ale jeśli chodzi o sam udział w rynku i częstotliwość użytkowania, nawet "średnia" przekłada się na ogromny ślad energetyczny na dużą skalę.

Zużycie energii a wyszukiwarka Google

Jeszcze w 2009 r, Google oszacował koszt energetyczny pojedynczego zapytania wynosi 0,3 Wh.

Do 2024 r. szacunki te stały się zakurzone.

Okazuje się, że dzisiejsze wyszukiwarki Google zużywają około 10 razy mniej energii niż te wczesne szacunki. 

Tymczasem wcześniejsze szacunki dotyczące energii dla przeciętnego żądania LLM, w tym ChatGPT, były również około 10 razy za wysokie (2,9 Wh).

Dzięki najnowszym badaniom, które stawiają zużycie energii przez Google na poziomie 0,04 Wh i ChatGPT na poziomie 0,3 Wh, te dwa błędy znoszą się nawzajem, co oznacza, że stare stwierdzenie "LLM zużywa około 10 razy więcej energii na zapytanie niż wyszukiwarka Google" nadal obowiązuje... ale tylko dlatego, że wszyscy mylili się we właściwy sposób. 

Co robi OpenAI, aby zmniejszyć wpływ?

OpenAI jest w pełni świadome, że trenowanie i uruchamianie modeli takich jak ChatGPT zużywa energię w znacznie szybszym tempie. 

Co prowadzi nas do pytania: co się z tym robi?

Po pierwsze, OpenAI naciska na ulepszenia wydajności. 

Z czasem nowsze modele, takie jak GPT-4o, a teraz GPT-4.1zostały specjalnie zoptymalizowane pod kątem znacznie niższego zużycia energii podczas wnioskowania. 

Postępy w architekturze modeli, obsłudze tokenów i ulepszeniach sprzętowych na poziomie serwera oznaczają, że dziś ilość energii zużywanej przez zapytanie ChatGPT jest już znacznie niższa niż nawet rok temu dla tego samego zadania.

OpenAI współpracuje również z Microsoft Azure i Azure zobowiązał się do uruchomienia swoich centrów danych na 100% energii odnawialnej do 2025 roku.

To ważne, ponieważ wysyłając zapytania do ChatGPT, pingujesz superkomputery Azure, o których mówiliśmy wcześniej. 

Przeniesienie źródła energii z paliw kopalnych na odnawialne źródła energii nie zmniejsza bezpośrednio mocy zużywanej przez zapytanie, ale radykalnie obniża ślad węglowy z nim związany.

Poza infrastrukturą dzieją się też rzeczy bardziej przyszłościowe. OpenAI aktywnie bada sposoby zmniejszania modeli bez poświęcania wydajności.

Kompresja modeli, destylacja i inteligentniejszy routing (np. dynamiczne przetwarzanie tokenów) to bardzo żywe tematy w kręgach zajmujących się wydajnością AI. 

Co możesz zrobić jako użytkownik?

Podczas gdy OpenAI zajmuje się dużymi zmianami strukturalnymi, użytkownicy nadal mają do odegrania rolę w minimalizowaniu odpadów i odpowiedzialnym korzystaniu z ChatGPT. 

Oto, co możesz zrobić:

  • Bądź zwięzły: Sformułuj swoje podpowiedzi jasno i ściśle. Każdy dodatkowy przetworzony żeton kosztuje trochę energii.
  • Unikaj spamowania podpowiedzi: Oprzyj się pokusie przesłania 15 nieznacznie przeredagowanych wersji tego samego pytania.
  • Używaj odpowiednich modeli: Jeśli to możliwe, wybieraj lżejsze, tańsze modele (takie jak GPT-4o-mini, jeśli są oferowane) do codziennych lub lekkich zadań.
  • Grupowanie żądań: Zamiast kilku fragmentarycznych pytań, skonsoliduj je w jedną, dobrze przemyślaną podpowiedź.

Jeśli chcesz ograniczyć niekończące się ponowne generowanie, warto skorzystać z dedykowanych narzędzi, które generują czystą, gotową do publikacji zawartość już po kilku pierwszych próbach.

To tutaj Niewykrywalna sztuczna inteligencja narzędzia takie jak Stealth Writer lub Parafraza wejdź. 

Zamiast prosić ChatGPT o idealną wersję tekstu poprzez wielokrotną edycję i ponawianie prób (z których każda kosztuje więcej energii), możesz po prostu skorzystać z naszych wyspecjalizowanych narzędzi stworzonych z myślą o precyzji. 

Narzędzia zaprojektowane do konkretnych działań zazwyczaj działają wydajniej, a wszystkie nasze narzędzia pasują do tego modelu inteligentnego, świadomego zużycia energii. 

Innymi słowy, czystsza wydajność w mniejszej liczbie prób = mniej spalonej energii = szczęśliwsze serwery = ratujesz świat, jeden ostry akapit na raz.

Gotowy, by zobaczyć różnicę? Uruchom nasz AI Detector i Humanizer w widżecie poniżej!

FAQ: ChatGPT i zużycie energii

Ile energii zużywa jedno żądanie ChatGPT?

Typowe zapytanie ChatGPT, zwłaszcza przy użyciu GPT-4o, zużywa około 0,3 watogodziny.

Jest to oparte na nowszych i dokładniejszych szacunkach, które odzwierciedlają poprawę wydajności sprzętu i architektury modelu. 

Wcześniejsze szacunki mówiły o około 3 watogodzinach na zapytanie, ale liczby te opierały się na starszej technologii i założeniach.

Tak więc, ilość energii zużywanej przez jedno żądanie ChatGPT jest dziś znacznie niższa niż kiedyś.

Czy trening jest bardziej energochłonny niż korzystanie z niego?

Tak, absolutnie. Trenowanie modelu takiego jak ChatGPT zużywa ogromną ilość energii, znacznie więcej niż uruchamianie go do codziennych zapytań.

Szkolenie obejmuje przetwarzanie ogromnych zbiorów danych przez tygodnie lub miesiące na tysiącach procesorów graficznych, co skutkuje bardzo dużym początkowym śladem węglowym.

Natomiast korzystanie z modelu (wnioskowanie) zużywa stosunkowo niewielkie ilości energii na żądanie.

Czy OpenAI publikuje dane dotyczące zrównoważonego rozwoju?

Nie, OpenAI nie publikuje obecnie szczegółowych publicznych raportów zrównoważonego rozwoju ani pełnych statystyk zużycia energii.

Podczas gdy firma ściśle współpracuje z Microsoft Azure, która ma własne cele i raporty dotyczące zrównoważonego rozwoju, sama OpenAI nie ujawniła kompleksowych informacji na temat zużycia energii lub śladu węglowego swoich modeli.

Przemyślenia końcowe: Koszt energetyczny sztucznej inteligencji

Podsumowując, ilość energii zużywanej przez ChatGPT zależy w dużej mierze od tego, do którego modelu masz dostęp i jak z niego korzystasz. 

Ale ogólnie rzecz biorąc, jasne jest, że nowsze modele są coraz bardziej wydajne, a branża podejmuje rzeczywiste wysiłki w celu zmniejszenia wpływu na środowisko.

Niemniej jednak, wybór odpowiedniego narzędzia do właściwego zadania może mieć znaczący wpływ na cyfrowy ślad. 

Inteligentniejsze przepływy pracy, mniejsza liczba ponownych prób i wyraźniejsze podpowiedzi przyczyniają się do niższego zużycia energii. 

A kiedy połączysz ChatGPT ze specjalnie stworzonymi narzędziami, takimi jak Undetectable AI, otrzymasz to, co najlepsze z obu światów.

Generujesz czyste, dopracowane i gotowe do publikacji treści przy mniejszej liczbie prób i błędów. Oznacza to oszczędność czasu, obliczeń i tak, trochę planety.

Jeśli chcesz pracować mądrzej i bardziej ekologicznie, Zarejestruj się w Undetectable AI już dziś.

Undetectable AI (TM)