英语轻松读发新版了,欢迎下载、更新

您的AI及时使用多少能量?这取决于

2025-07-02 15:30:00 英文原文

作者:By Celina Zhao 17 hours ago

每次您要求聊天机器人都不会汗流式,或者说出您最好的爸爸笑话。但是随着时间的流逝,地球可能。

随着生成的AI(例如大语言模型(LLM))变得更加无处不在,关键问题。对于您与AI的每一次互动,都需要多少能量,以及向大气中发出多少碳?

本月初,OpenAI首席执行官Sam Altman声称一个平均的Chatgpt查询使用等于烤箱在一秒钟以上使用的能量。类似的估计。但是,专家们说,该主张缺乏关键环境,例如平均查询是什么。

``如果您想对此进行严格的态度,则必须给出一个范围。您可以在那里扔一个数字。

包括Openai和Anthropic在内的主要参与者都有数据,但是他们不分享。取而代之的是,研究人员只能将开源LLM的线索组合在一起。一项于6月19日发表的研究沟通的前沿一个 检查了14个这样的模型,包括来自Meta和DeepSeek的人,发现某些模型产生了多50倍排放比其他人。

但是这些数字仅提供了狭窄的快照 - 只有在考虑培训模型的碳成本,制造和维护硬件以运行它们的碳成本以及生成AI准备渗透到我们的日常生活的规模之后,它们才会变得更加可怕。

密歇根大学的计算机科学家Mosharaf Chowdhury说,机器学习研究是由准确性和性能驱动的。能量一直是没人想谈论的中间孩子。

科学新闻与四名专家进行了交谈,以打破这些隐藏的成本及其对AI的未来意味着什么。

是什么使大型语言模型如此渴望能源?

您经常会听到人们用他们的参数数量来描述LLM。参数是模型在训练过程中调整以提高其性能的内部旋钮。参数越多,模型必须学习数据中的模式和关系的能力就越大。例如,估计GPT-4具有超过万亿个参数。

麻省理工学院计算机科学家诺曼·巴希尔(Noman Bashir)说,如果您想了解世界上所有的知识,则需要越来越大的模型。

这样的模型不在笔记本电脑上运行。取而代之的是,他们重新部署在世界各地的大型数据中心中。在每个中心中,模型都加载在包含称为图形处理单元(GPU)的强大芯片的服务器上,这些芯片可以完成生成有用的输出所需的数字处理。模型的参数越多,通常需要越多的芯片来运行它 - 尤其是为了使用户提供最快的响应。

所有这些都需要精力。已经,4.4%美国所有能源都用于用于包括AI在内的各种技术需求的数据中心。到2028年,这一数字预计将增长到12%。

为什么要测量LLM的碳足迹如此困难?

在任何人都可以向模型提出问题之前,必须首先对其进行培训。在培训期间,模型会消化大量数据集并相应地调整其内部参数。它通常需要数周和数千个GPU,燃烧大量的能量。但是,由于公司很少透露他们的培训方法 - 他们使用了什么数据,计算时间或为它提供了什么样的能量。

模型的生命周期的后半部分是推理,每当用户提示模型时,都会发生这种推理。随着时间的流逝,预计推断将考虑大部分模型排放。Chowdhury说:``您一次训练模型,然后数十亿个用户正在使用该模型。”

但是推论也很难量化。单个查询的环境影响可能会大大变化,具体取决于该数据中心的路由到哪个数据中心,该数据中心的能源电网为数据中心甚至一天中的时间提供动力。最终,只有运行这些型号的公司才能完整。

有什么方法可以估算LLM的能源使用?

进行培训,不是真的。进行推断,有点。

Openai和Anthropic保留了他们的模型专有,但是其他公司(例如Meta和DeepSeek)发布了其AI产品的开源版本。研究人员可以在本地运行这些模型,并衡量其GPU消耗的能量,以此作为代理能源推断所需的代理。

在他们的新研究中,德国慕尼黑应用科学大学的Maximilian Dauner和Gudrun Socher测试了14个开源AI型号,在NVIDIA A100 GPU上,从70亿到720亿到720亿到720亿到720亿个参数(那些内部旋钮)。推理模型逐步解释他们的思维,在推理过程中消耗的能量要比直接输出答案的标准模型要多得多。

原因归因于令牌,或者是文本的位以生成响应的模型过程。更多的令牌意味着更多的计算和更高的能源使用。平均而言,推理模型每个问题使用了543.5个令牌,而标准模型仅为37.7。在大规模上,查询加起来:使用70参数推理模型DeepSeek R1回答600,000个问题将与从伦敦到纽约的往返航班一样多。

实际上,数字只能更高。许多公司已经改用了NVIDIA的新H100,这是一种针对AI工作负载的芯片,比A100更渴望的动力。更准确地反映推理过程中使用的总能量 - 包括冷却系统和其他支持硬件 - 先前的研究发现,报告的GPU能耗需要是加倍

即便如此,巴希尔指出,仍然没有说明生产硬件和建造容纳它的建筑物所产生的排放,这就是所谓的体现碳。

NVIDIA H100 chip
NVIDIA H100专门针对人工智能工作负载进行了优化 - 它比其前任更具渴望的力量。Å®¢μGeekerwan/Wikimedia Commons

人们可以做些什么来使他们的AI使用更加环保?

为每个任务选择正确的模型会有所不同。Dauner问。或者一个小型模型也可以回答简单的问题,我们可以基于此减少排放量?

同样,并非每个问题都需要推理模型。例如,Dauner的研究发现,标准模型QWEN 2.5的精度与推理模型Cogito 70B相当,但不到碳生产的三分之一。

研究人员创建了其他公共工具来衡量和比较AI能源使用。拥抱的脸部有一个名为的排行榜AI能量得分这是根据从文本生成到图像分类再到语音转录的10个不同任务中使用的能量来对模型进行排名的。它包括开源和专有模型。这个想法是帮助人们为特定工作选择最有效的模型,发现“绩效,准确性和能源效率”之间的黄金点。

Chowdhury也有助于运行ml.energy,它具有类似的排行榜。Chowdhury说,您可以通过放弃一点点的表现来节省大量能量。”

在白天或夏季,当电力需求尖峰和冷却系统加班时使用AI的频率也可能会有所作为。巴希尔说,这与AC相似。<如果外部温度很高,则需要更多的能量来冷却房屋的内部。

即使您的查询方式也很重要。从环境上讲,聊天机器人无需礼貌。您输入的任何额外输入更多的处理能力解析。Dauner说,这耗资数百万美元的[额外]美元。•每个不必要的单词都会影响运行时间。

但是,最终必须赶上政策。Luccioni提出了一个基于能源评级系统的框架,例如用于家用电器的框架。例如,如果您的模型每天或以上1000万用户正在使用您的模型,则必须具有B+或更高的能量评分。”

否则,能源供应将无法维持不断增长的需求。Luccioni说:``我去参加网格操作员吓坏了的会议。”科技公司可以继续这样做。事情将开始向南行驶。

关于《您的AI及时使用多少能量?这取决于》的评论


暂无评论

发表评论

摘要

随着像大型语言模型(LLM)这样的生成AI变得越来越普遍,因此对它们的能耗和碳排放的担忧增长。Openai声称,典型的Chatgpt查询使用一秒钟以上的烤箱的能量缺乏关键环境。研究人员难以衡量由于专有培训方法和变化的推理条件而造成的确切环境影响。研究表明,某些模型发出的CO₂高达50倍,而模型训练的碳足迹仍然很大未知。减少AI的环境影响的努力包括选择较小的模型来完成要求较少的任务并优化查询措辞。但是,需要更广泛的政策变化,例如用于AI模型的能源评级系统,以管理对能源网格的未来需求。