ChatGPT 使用多少能源?

如果你在互联网上搜索 "ChatGPT 使用多少能源 "的答案,你可能会发现类似的内容:

"ChatGPT的耗电量是谷歌搜索的10倍"。

如果你沿着这条线索走下去,就会发现这一说法通向一个 170 页的国际能源机构报告链接到一篇引用 Alphabet 董事长可能做出的估计的文章......该估计基于 2009 年的数据。天哪

实际上,谷歌最新的搜索操作效率比 2009 年提高了约 10 倍,而 ChatGPT 目前每次请求的实际能耗也远远低于早期的警示。

像 GPT-4o 这样的新机型在效率方面取得了重大进步,这就意味着现在流传的标题数字已经过时,而且说实话,还有点误导。

那么,真实情况是怎样的呢?这正是我们要深入探讨的问题。

您的收获将是

  • ChatGPT 的引擎盖下是什么?
  • 一次 ChatGPT 搜索会消耗多少能量?
  • 与谷歌搜索和其他人工智能模型相比,它的能耗有多大?
  • OpenAI 正在采取哪些措施来减少影响?
  • 作为用户,您可以采取哪些措施,让您在使用人工智能时更加负责任?

让我们开始吧。

什么是 ChatGPT?

微软 Azure 首席技术官马克-鲁西诺维奇(Mark Russinovich)为我们揭开了幕后的秘密 在播客中微软于 2023 年出版

据他介绍,微软建立的基础设施能够训练具有数千亿个参数的模型。 

例如,GPT-3 有 1 750 亿个参数,这听起来已经太多了,直到你听说微软的威震天-图灵模型有 5 300 亿个参数。

再也不用担心人工智能检测到你的短信了 Undetectable AI 可以帮助您:

  • 让人工智能辅助写作显现出来 像人一样
  • 旁路 只需点击一下,就能使用所有主要的人工智能检测工具。
  • 使用 人工智能 安全地自信地 在学校和工作中。
免费试用

在硬件方面,最初的 2020 OpenAI 超级计算机集成了超过 28.5 万个 AMD InfiniBand 连接的 CPU 内核和 1 万个英伟达 V100 Tensor Core GPU。 

新的 H100 虚拟机系列每个虚拟机最多可集群八个英伟达™(NVIDIA®)H100 Tensor Core GPU,并可扩展至数千个。 

简而言之,如果你想知道 ChatGPT 的强大之处,答案基本上就是:全部。

所有内核、所有 GPU、所有网络带宽,都是你梦寐以求的。

ChatGPT 的估计能源使用量

现在,真正的问题来了:ChatGPT 每个问题消耗多少能量? 

你可能会以为它是世界末日,就像你每输入一个提示音,它就会融化冰川一样。 

但实际上,根据最近的估计,在 GPT-4o 上进行典型的 ChatGPT 查询大约需要 0.3 瓦时(Wh)。 

这比 2023 年初的旧估计(很可能是不准确的)少了约十倍,旧估计是 3 瓦时。 

效率的飞跃归功于更好的模型、更先进的硬件,以及认识到旧版本对代币数量的估计过于悲观。

0.3 瓦时的能耗比你加热咖啡时笔记本电脑的能耗还低。 

即使你整天都在进行大量的查询,ChatGPT 每天的能耗与运行空调或游戏电脑相比,也是相当低的。但这只是您的使用情况。

截至今年 2 月,OpenAI 的每周用户数量已超过 4 亿。 OpenAI 发言人告诉路透社.因此,即使你的效率很高,耗电量也会很大。

值得注意的是,这个 0.3 瓦时的数字还是有些谨慎。 

许多日常查询可能比这还便宜。

但是,涉及大量输入、广泛输出或重型推理模型的查询仍会大大增加消耗量。

能源使用:GPT-4 与 GPT-3.5

尽管 GPT-3.5 已经日落西山,但它的余威依然不减,尤其是当我们讨论 ChatGPT 在不同版本中的能耗时。

以下是与 GPT-4 相比的能耗数据。

对于拥有约 1 750 亿个参数的 GPT-3 型模型来说,排放量已经很高,但如果改用结构更重的 GPT-4 型模型,排放量可能会增加约 200 倍。 

乔治-霍兹认为而 GPT-4 是由八个类似于 220B 参数的 GPT-3 模型拼接而成。 

但重要的是,这些模型中只有两个在推理过程中被实际路由,这意味着一旦考虑到一些参数共享(注意力机制约为 55B),真正的行动会在约 280B 的有效参数下发生。

与 GPT-3.5 的 175B 设置相比,你就会明白为什么 GPT-4 的推理成本要高出三倍。 

能源使用量的增长超过了参数数量的增长,而参数数量的增长本应仅为能源使用量增长的 1.6 倍。 

但事实并非如此,因为 GPT-4 的查询成本实在太高了。 

人工智能模型的碳足迹

无论是对地球还是对电费来说,运行大型人工智能模型都不便宜。

这些模型需要强大的计算能力,这意味着需要大量电力,在许多情况下还需要大量排放。

例如,据报道,GPT-3 训练需要约 1 287 兆瓦时的电力、 产生超过 50 磅的二氧化碳.

像 GPT-4o 这样的新型号甚至更大,但 OpenAI 还没有公布它们的具体尺寸。

除了 OpenAI 的 ChatGPT,还有 Meta 的人工智能助手,它很可能运行在 Llama 3.2 型号上(参数为 11B 或 90B)。

同样,二氧化碳排放量的确切数字也不详。

Anthropic 的 Claude 3.5 Sonnet 重量更大,估计约为 4000 亿个参数,但没有披露其确切的碳足迹。

谷歌的双子座呢?由 "Flash "和 "Pro "变体提供动力,不过谷歌尚未透露确切的参数数字。

我们仍然可以推断,它们与 GPT-4o 或其迷你变体处于同一水平。

说到精简模型,DeepSeek-V3 仅使用了 370 亿个有效参数(总参数数为 671 亿)。 

与 GPT-4o 相比,其 R1 推理变体显示出强劲的性能,同时每个令牌消耗的能量更少。 

ChatGPT 与其他工具相比有何优势?

在这一点上,你应该知道 ChatGPT 消耗多少能量取决于你正在使用的版本、提示的长度以及引擎盖下的机制。 

与更多的人工智能工具相比,ChatGPT 在能源需求方面处于平均水平,尤其是高端型号。 

但是,就纯粹的市场份额和使用频率而言,即使是 "平均水平 "也会产生巨大的能源足迹。

能源使用与谷歌搜索

回到 2009 年、 谷歌估计 单次搜索查询的能耗成本为 0.3 Wh。

时间快进到 2024 年,这一估算已经尘埃落定。

事实证明,今天的谷歌搜索所消耗的能源实际上比早期的估计少了约 10 倍。 

同时,早些时候对包括 ChatGPT 在内的平均 LLM 请求的能耗估计也高出约 10 倍(2.9 Wh)。

最新研究表明 谷歌的能耗为 0.04 Wh 和 ChatGPT 的 0.3 Wh,这两个错误相互抵消,这意味着 "LLM 每次查询的能耗是谷歌搜索的 10 倍 "这一说法仍然成立......但这只是因为每个人都错得恰到好处。 

OpenAI 如何减少影响?

OpenAI 充分认识到,像 ChatGPT 这样的模型在训练和运行过程中消耗能量的速度要快得多。 

这就引出了一个问题:对此正在采取什么措施?

首先,OpenAI 一直在推动效率升级。 

随着时间的推移,更新的型号,如 GPT-4o,以及现在的 GPT-4.1经过专门优化,推理过程中的能耗大大降低。 

模型架构、令牌处理和服务器级硬件改进等方面的进步意味着,今天,ChatGPT 查询的能耗已经远远低于一年前执行相同任务时的能耗。

OpenAI 还与微软 Azure 和 Azure 承诺到 2025 年使用 100% 可再生能源运行其数据中心

这一点很重要,因为当你向 ChatGPT 发送查询时,你就在 ping 我们之前谈到的 Azure 超级计算机。 

将能源从化石燃料转向可再生能源,虽然不会直接减少查询所使用的功率,但却能从根本上减少碳足迹。

除了基础设施,还有一些面向未来的事情正在发生。OpenAI 正在积极研究如何在不牺牲性能的前提下缩小模型。

模型压缩、蒸馏和更智能的路由(如动态令牌处理)都是人工智能效率圈中非常热门的话题。 

作为用户,您能做些什么?

在 OpenAI 处理重大结构转变的同时,用户仍需发挥作用,最大限度地减少浪费,并负责任地使用 ChatGPT。 

您可以这样做

  • 要简明扼要: 清晰、严密地设置提示框。每多处理一个标记,都要耗费一点精力。
  • 避免垃圾提示: 抵制诱惑,不要提交 15 个措辞略有改动的相同问题。
  • 使用适当的模型: 在可能的情况下,选择更轻便、更便宜的型号(如 GPT-4o-mini 型,如果有提供的话)来完成休闲或轻量级任务。
  • 批量处理您的请求: 与其提出一堆零散的问题,不如将它们整合成一个经过深思熟虑的提示。

如果你想减少无休止的重复和重新生成,那么使用专门的工具是明智之举,这些工具能在最初的几次尝试中生成更简洁、可发布的内容。

这就是 检测不到的人工智能 工具,如 隐形作家译员 进来 

您无需通过多次编辑和重试(每次都会耗费更多精力)来要求 ChatGPT 为您的文本提供完美版本,而只需使用我们专为精确而设计的专业工具即可。 

为特定操作而设计的工具通常效率更高,我们的所有工具都符合这种智能、节能的使用模式。 

换句话说,更少的尝试带来更清洁的输出=更少的能源消耗=更快乐的服务器=你拯救了世界,一次一个清晰的段落。

准备好一睹为快了吗?在下面的小工具中启动我们的人工智能检测器和人性化设计器!

常见问题:聊天GPT 和能源使用

一次 ChatGPT 请求会消耗多少能源?

一个典型的 ChatGPT 查询,尤其是使用 GPT-4o 时,耗电量约为 0.3 瓦时。

这是基于更新、更准确的估算,反映了硬件效率和模型结构的改进。 

早先的估计是每次查询约 3 瓦时,但这些数字是基于较早的技术和假设得出的。

因此,今天一个 ChatGPT 请求的能耗比过去低得多。

培训比使用更耗能吗?

是的,当然。训练像 ChatGPT 这样的模型需要消耗大量能源,远远超过运行它进行日常查询的能耗。

训练需要在数以千计的 GPU 上花费数周或数月的时间处理庞大的数据集,这就造成了非常大的前期碳足迹。

相比之下,使用模型(推理)每次请求消耗的能量相对较少。

OpenAI 是否公布可持续发展数据?

目前,OpenAI 尚未发布详细的公共可持续发展报告或完整的能源使用统计数据。

虽然 OpenAI 与微软 Azure 有着密切的合作,后者也有自己的可持续发展目标和报告,但 OpenAI 本身并没有全面披露其模型的能耗或碳足迹。

最后的思考人工智能的能源成本

总之,ChatGPT 的能耗在很大程度上取决于您访问的机型和使用方式。 

但总体而言,新机型的效率显然越来越高,而且该行业正在切实努力减少对环境的影响。

尽管如此,为正确的任务选择正确的工具,可以使您的数字足迹发生显著变化。 

更智能的工作流程、更少的重试次数和更清晰的提示都有助于降低能耗。 

将 ChatGPT 与像 Undetectable AI 这样的专用工具相结合,您就能获得两个世界的最佳效果。

您生成的内容简洁、精炼,可随时发布,无需反复试验。这意味着节省时间、节省计算,还能为地球节省一点资源。

如果您想更智能、更环保地工作、 立即注册不可检测的人工智能.

Undetectable AI(TM)