作者:Adam Clark Estes
苹果刚刚将人工智能带入了数百万人的口袋。该公司正在推出所谓的苹果情报本周,为 iPhone、iPad 和 Mac 用户带来一些基本的文本生成和图像编辑功能谁选择加入。我已经通过该软件的开发人员测试版测试这些工具几个月了,并且他们相当平庸。但这仅仅是开始。
生成式人工智能曾经是技术痴迷者的小把戏,但现在正迅速成为主要软件发布的主要事件。随着苹果公司推出其技术版本,谷歌正在将人工智能构建到其 Android 操作系统中和迫使每个人都看人工智能概述几乎在每个 Google 搜索的顶部。开放人工智能和元正在构建自己的人工智能搜索引擎,而初创公司困惑已经有一个了。微软和人择最近宣布推出新的超强大人工智能代理,可以像人类一样完成复杂的任务。(披露:Vox Media 是与 OpenAI 签署合作伙伴协议的几家出版商之一。我们的报道在编辑上保持独立。)
虽然一些公司已经推出生成式人工智能产品一年多了,但 Apple Intelligence 的到来标志着该技术主流化的拐点。Apple Intelligence 仅适用于最新的 Apple 设备,但美国超过一半的手机是iPhone。随着人们的升级,数百万人可以利用新技术。
如果您还没有使用人工智能,那么无论您喜欢与否,您可能很快就会使用人工智能。
“我们正在将人工智能,尤其是生成式人工智能,在几乎没有透明度的情况下强行塞进我们的喉咙,老实说,选择退出机制要么不存在,要么很复杂,”人工智能研究员兼气候负责人 Sasha Luccioni 说Hugging Face,一个共享人工智能和机器学习工具的平台。
如果这让您感到恐惧,这是可以理解的。也许你参加比赛感觉不好打造超级人工智能没有人要求。您可能会觉得自己是同谋使用受版权保护的材料训练的人工智能模型无需支付创作者费用。你可能对洪水泛滥感到非常难过人工智能的废话正在毁掉互联网即使污水不是您亲自造成的。
然后就是这一切对气候的影响。人工智能有多种形式,需要大量工作所需的能源和水。一个很多。这可能会让你对使用人工智能感到非常内疚。
就能源而言,Apple Intelligence 可能比其他大型人工智能选项更无负罪感。苹果表示,它会将 GenMoji 和 Image Playground 等某些人工智能功能的处理完全保留在你的设备上。这意味着减少对能源密集型数据中心的依赖。
我们不知道人工智能在这些数据中心使用了多少能源。加州大学河滨分校工程教授 Shaolei Ren 利用微软研究院最近的一项研究数据得出了这一结论:让 ChatGPT 写两封 200 字的电子邮件所消耗的能源与特斯拉 Model 3 所需的能源大致相同驾驶一英里。由于它们产生如此多的热量,生成这些电子邮件的处理器也需要大约四瓶半升水冷却下来。
如果规模扩大,这种能源浪费的后果就会变得更加明显。主要进行人工智能处理的数据中心的用电量为预计增长 160%高盛表示,到本世纪末,二氧化碳排放量可能会增加一倍以上。与此同时,所需的水量也将激增,以至于到 2027 年,人工智能的渴可能相当于英国每年取水量的一半。
这些都是基于有限数据的估计,因为构建人工智能系统的科技公司,包括苹果、谷歌、微软和 OpenAI,并没有确切地透露他们的模型使用了多少能源或水。
“我们只是关注黑匣子,因为我们完全不知道与大型语言模型交互的能耗,”任说。他将这种情况比作在谷歌上搜索航班并能够查看每条航程的碳排放量。“但是当涉及到这些大型语言模型时,绝对没有、零、没有信息。”
人工智能能源需求缺乏透明度也与这些科技公司的可持续发展承诺背道而驰。有充分的理由相信人工智能直接导致这些承诺被违背。
由于数据中心能源使用量的增加,谷歌看到了其温室气体排放增加 48%尽管承诺在 2019 年的基础上减少 50% 的排放量,但从 2019 年到 2023 年到2030年。公司不再声称碳中和。微软同样如此排放量猛增 29%从 2020 年到 2023 年。虽然微软承诺到 2030 年实现负碳排放,但它现在正在公开挣扎并提供实现这一目标的方法,同时跟上人工智能创新的步伐。
这就是军备竞赛的样子。这里值得指出的是,在 OpenAI 凭借其技术让世界大吃一惊的时候,所有能源使用量都开始飙升。ChatGPT 惊喜发布2022 年 11 月。聊天机器人成为有史以来增长最快的应用程序,捕获1亿用户两个月后并掀起了硅谷的人工智能淘金热。现在,全部风险投资资金的 40%云计算领域的资金流向了生成型人工智能公司。OpenAI 本身在 10 月初宣布了一轮 66 亿美元的融资 -有史以来最大的风险投资轮— 估值为 1570 亿美元。
考虑到如此巨额的资金投入,能源效率让位于增长和创新也就不足为奇了。像 OpenAI 这样的公司希望为其人工智能技术提供支持的模型变得更大,这样他们就能变得更好并超越竞争对手。模型越大,能源需求就越大——至少目前是这样。随着时间的推移,由于芯片技术、数据中心冷却和工程的进步,性能可能会变得更加高效。
“由于当 ChatGPT 突然出现时,创新发生得如此之快,因此您最初会期望效率处于最低点,”芯片制造商 Nvidia 可持续发展主管 Josh Parker 告诉我。
尽管如此,目前 OpenAI、Google 和 Meta 等公司最力推的产品仍然是最耗能的产品。其中包括实时聊天机器人、语音助手和搜索引擎。这些功能招募更大的型号并需要更先进的芯片同时工作以减少延迟或滞后。简而言之,他们必须同时快速地解决大量困难的数学问题。这就是为什么它需要与特斯拉一样多的电力。
然而,苹果似乎将自己视为一个例外。作为保护用户隐私承诺的一部分,该公司表示,它会在您的设备上处理尽可能多的 Apple Intelligence 任务,而无需向数据中心发送查询。这意味着当您选择使用 Apple Intelligence 时,您会下载一个小型生成人工智能模型,该模型可以在手机上处理非常简单的任务。与并网的云数据中心不同,您的 iPhone 电池的电量有限,这迫使 Apple Intelligence 必须以一定的效率处理这些任务。也许设备上的人工智能毕竟是未来的无负罪感版本。
当然,问题在于我们并不确切了解 Apple Intelligence 的工作原理。我们不知道设备上处理哪些任务,哪些任务被发送到耗能的苹果服务器,也不知道这一切需要多少能源。我向苹果公司询问了此事,但该公司没有提供具体细节。话又说回来,当大型科技公司解释其人工智能产品时,不提供细节是一个主题。
再说一次,如果你对生活中的人工智能感到恐惧或内疚,这是可以理解的。显然,在目前的状态下,这项技术消耗大量且不断增加的能源,导致温室气体排放并加剧人为造成的气候变化。确实,您可能别无选择,因为大型科技公司使生成式人工智能成为其产品的基础。您可以选择退出 Apple Intelligence,也可以从不选择加入。但是您会发现,选择退出 Google、Meta 和 Microsoft 的 AI 产品即使不是不可能,也会更加困难。(如果你想尝试,这里是有用的指南.)
“我认为没有理由感到内疚,”卢乔尼说。“但我确实认为,就像一般的气候变化一样,我们有理由要求提供更多信息,要求代表向我们出售这些产品的公司承担责任。”
如果人工智能应该解决我们所有的问题或摧毁我们所有人或两者兼而有之,很高兴知道详细信息。我们可以询问 ChatGPT,但这可能会造成巨大的能源浪费。
这个故事的一个版本也发表在 Vox Technology 时事通讯上。在这里注册这样您就不会错过下一篇!