作者:Rob Toews
Meta 是开放式人工智能的世界旗手。在一个引人入胜的企业战略案例研究中,尽管 OpenAI 和 Google 等竞争对手一直将其前沿模型封闭源代码并收取使用费用,但 Meta 选择免费提供其最先进的 Llama 模型。
因此,明年当 Meta 开始向使用 Llama 的公司收费时,许多人都会感到惊讶。
需要明确的是:我们并不是预测 Meta 会让 Llama 完全闭源,也不是预测任何使用 Llama 模型的人都需要付费。
相反,我们预测 Meta 将使 Llama 的开源许可条款更加严格,这样在超过一定规模的商业环境中使用 Llama 的公司将需要开始付费才能访问模型。
从技术上讲,Meta 今天已经做了一个有限版本。该公司不允许最大的公司——云超大规模企业和其他每月活跃用户超过 7 亿的公司——自由使用其 Llama 模型。
时间回到 2023 年,Meta 首席执行官马克·扎克伯格说:“如果您是微软、亚马逊或谷歌等公司,并且您基本上会转售 [Llama],那么我们认为我们应该从中获得一部分收入。我认为短期内这不会带来大量收入,但从长远来看,希望这能有所作为。”
明年,Meta 将大幅扩大必须付费使用 Llama 的组织范围,以包括更多的大中型企业。
Meta 为何要做出这一战略支点?
跟上法学硕士前沿的步伐是非常昂贵的。如果 Meta 希望 Llama 与 OpenAI、Anthropic 等公司的最新前沿模型保持或接近同等水平,每年需要投资数十亿美元。
Meta 是世界上最大、财力最雄厚的公司之一。但它也是一家上市公司,最终对其股东负责。随着构建前沿模型的成本飙升,Meta 投入如此巨额资金以零期望收入训练下一代 Llama 模型越来越站不住脚。
明年,爱好者、学者、个人开发者和初创公司将继续免费使用 Llama 模型。但 2025 年将是 Meta 认真考虑将 Llama 货币化的一年。
最近几周,人工智能领域最热门的话题莫过于缩放法则以及它们是否即将结束的问题。
首先介绍于2020 OpenAI 论文缩放定律背后的基本概念很简单:随着训练 AI 模型时模型参数数量、训练数据量和计算量的增加,模型的性能会提高(从技术上讲,其测试损失会降低)以可靠且可预测的方式。从 GPT-2 到 GPT-3 再到 GPT-4 的惊人性能改进是由缩放法则造成的。
就像摩尔定律一样,比例定律实际上并不是定律,而只是经验观察。过去一个月,一系列报告已经表明,主要的人工智能实验室正在看到持续扩展大型语言模型的回报正在递减。例如,这有助于解释为什么 OpenAI 的 GPT-5 发布不断延迟。
对稳定缩放定律最常见的反驳是,测试时计算的出现开辟了追求缩放的全新维度。也就是说,像 OpenAI o3 这样的新推理模型不是在训练期间大规模扩展计算,而是在训练期间大规模扩展计算成为可能。推理,通过使模型能够“思考更长时间”来解锁新的人工智能功能。
这是很重要的一点。测试时计算确实代表了一种令人兴奋的扩展和人工智能性能改进的新途径。
但关于缩放定律的另一点更为重要,但在当今的讨论中却很少受到重视。几乎所有关于缩放定律的讨论(从 2020 年最初的论文开始,一直延伸到今天的重点是测试时计算)都以语言为中心。但语言并不是唯一重要的数据形式。
想想机器人技术、生物学、世界模型或网络代理。对于这些数据模式,标度法则尚未饱和;相反,他们才刚刚开始。事实上,严格的证据表明存在这些领域的缩放法则迄今为止尚未公布。
为这些较新的数据模式构建基础模型的初创公司——例如生物学中的进化规模、机器人技术中的物理智能、世界模型中的世界实验室——正在寻求识别和驾驭这些领域的缩放法则,就像 OpenAI 成功驾驭 LLM 缩放的方式一样2020年代上半叶的法律。明年,预计这里会取得巨大进步。
不要相信这些闲言碎语。规模法则不会消失。到 2025 年,它们将一如既往地重要。但扩展法律的活动中心将从 LLM 预培训转向其他模式。
美国新一届政府将带来一系列人工智能政策和战略转变。鉴于马斯克在当今人工智能世界中的核心作用,为了预测特朗普总统领导下的人工智能风向,人们可能会倾向于关注当选总统与埃隆·马斯克的密切关系。
人们可以想象马斯克可能会以多种不同的方式影响特朗普政府中人工智能相关的发展。鉴于马斯克的深深的敌意由于与 OpenAI 的关系,新政府在与行业接触、制定人工智能法规、授予政府合同等方面可能会对 OpenAI 采取不太友好的立场。(这是 OpenAI 面临的真正风险担心另一方面,特朗普政府可能会优先支持马斯克自己的公司:例如,削减繁文缛节,让 xAI 能够建设数据中心,并在前沿模型竞赛中占据一席之地;监管机构迅速批准特斯拉部署机器人出租车车队;等等。
更根本的是,埃隆·马斯克(Elon Musk)与许多其他听取特朗普意见的技术领导者不同,他非常严肃地对待存在的人工智能安全风险,因此是重要人工智能监管的倡导者。他支持加利福尼亚州备受争议的 SB 1047 法案试图对人工智能开发者施加有意义的限制。因此,马斯克的影响力可能会导致美国对人工智能的监管环境更加严厉。
不过,所有这些猜测都存在一个问题。唐纳德·特朗普和埃隆·马斯克的亲密关系将不可避免地破裂。
正如我们在特朗普第一届政府期间一次又一次看到的那样,特朗普盟友的任期中位数,即使是看似最坚定的盟友,也非常短——从杰夫·塞申斯到雷克斯·蒂勒森,从詹姆斯·马蒂斯到约翰·博尔顿,再到史蒂夫·班农。(当然,谁能忘记安东尼·斯卡拉穆奇在白宫的十天任期?)时至今日,特朗普第一届政府的副手中很少有人仍然忠于他。
唐纳德·特朗普和埃隆·马斯克的性格都很复杂、反复无常、难以预测。与他们合作并不容易。他们把人们烧死。事实证明,他们新建立的友谊到目前为止是互惠互利的,但仍处于蜜月阶段。我们预测,在 2025 年结束之前,两国关系将会恶化。
这对人工智能世界意味着什么?
对于 OpenAI 来说,这将是一个可喜的消息。对于特斯拉股东来说,这将是一个不幸的消息。对于那些关心人工智能安全的人来说,这将是令人失望的,因为这几乎将确保美国政府在特朗普的领导下对人工智能监管采取不干涉的态度。
想象一个您永远不必直接与网络交互的世界。每当您需要管理订阅、支付账单、安排医生预约、在亚马逊上订购东西、预订餐厅或完成任何其他繁琐的在线任务时,您都可以简单地指示人工智能助手在您的智能手机上执行此操作。代表。
“网络代理”的概念已经存在多年。如果这样的东西存在并且有效,那么毫无疑问它将是一个非常成功的产品。然而,目前市场上还没有可用的通用网络代理。
像 Adept 这样的初创公司——虽然拥有一支实力雄厚的创始团队筹集了数亿美元资金,但却未能实现其愿景——已经成为这一类别的警示故事。
明年将是网络代理最终开始运作良好并成为主流的一年。语言和视觉基础模型的持续进步,加上新推理模型和推理时间计算带来的“系统 2 思维”能力的最新突破,将意味着网络代理将迎来黄金时期。
(换句话说,Adept 的想法是正确的;只是还为时过早。在初创企业中,正如在生活中的许多事情一样,时机就是一切。)
网络代理会发现各种有价值的企业用例,但我们相信网络代理近期最大的市场机会将来自消费者。尽管最近人工智能热潮不断,但除了 ChatGPT 之外,相对较少的人工智能原生应用程序尚未突破并成为主流消费者的成功。网络代理将改变这一现状,成为消费者人工智能领域下一个真正的“杀手级应用”。
2023年,阻碍AI增长的关键物理资源是GPU芯片。2024年,它已成为电力和数据中心。
2024 年,在急于建设更多人工智能数据中心的背景下,很少有故事比人工智能巨大且快速增长的能源需求更引人注目。数据中心的全球电力需求在几十年来保持平稳之后预计的到双倍的得益于人工智能的蓬勃发展,2023 年至 2026 年。在美国,数据中心预计消耗接近10%到 2030 年,这一比例将由 2022 年的 3% 上升。
当今的能源系统根本无法应对人工智能工作负载带来的巨大需求激增。这两个价值数万亿美元的系统(我们的能源网络和我们的计算基础设施)之间的历史性碰撞即将发生。
作为解决这一难题的可能方案,核电今年势头强劲。核能在很多方面代表了人工智能的理想能源:它是零碳、24/7 可用且实际上取之不尽用之不竭。但实际上,由于研究、项目开发和监管时间较长,新核能源要到 2030 年代才能解决这个问题。这适用于传统核裂变发电厂、下一代“小型模块化反应堆”(SMR),当然也适用于核聚变发电厂。
明年,应对这一挑战的非传统新想法将会出现并吸引真正的资源:将人工智能数据中心置于太空中。太空人工智能数据中心
——乍一看,这听起来像是一个关于风投试图结合太多初创公司流行语的糟糕笑话。但实际上这里可能有一些东西。
在地球上快速建立更多数据中心的最大瓶颈是获取所需的电力。在轨道上的计算集群可以全天候享受免费、无限、零碳的电力:太阳在太空中永远闪耀。
将计算投入太空的另一个有意义的优势是:它解决了冷却问题。构建更强大的人工智能数据中心的最大工程障碍之一是,在有限的空间内同时运行许多 GPU 会变得非常热,而高温会损坏或毁坏计算设备。数据中心开发人员正在采用昂贵且未经验证的方法(例如液浸冷却)来尝试解决此问题。但太空极其寒冷;计算活动产生的任何热量都会立即无害地消散。
当然,还有许多实际挑战有待解决。一个明显的问题是是否以及能够在轨道和地球之间经济高效地传输大量数据。这是一个悬而未决的问题,但事实证明它是可以解决的,因为使用激光和其他高带宽光通信技术的工作正在进行中,有希望。
Y Combinator 旗下一家名为 Lumen Orbit 的热门初创公司最近提出1100 万美元用于实现这一具体愿景:在太空建立一个数千兆瓦的数据中心网络来训练人工智能模型。
正如 Lumen 首席执行官 Philip Johnston 所说:“您可以为发射和太阳能支付 1000 万美元,而不是支付 1.4 亿美元的电费。”
到 2025 年,Lumen 将不是唯一认真对待这一概念的组织。
其他初创公司的竞争对手将会出现。如果看到一个或多个云超大规模企业也沿着这些方向开展探索性工作,请不要感到惊讶。亚马逊已经拥有将资产送入轨道的丰富经验柯伊伯计划;谷歌长期以来一直资助此类登月创意。甚至微软也是并不陌生到太空经济。埃隆·马斯克 (Elon Musk) 的 SpaceX 也可以在这里发挥作用。
图灵测试是最古老、最著名的人工智能性能基准测试之一。
为了“通过”图灵测试,人工智能系统必须能够通过书面文本进行通信,这样普通人就无法判断他或她是在与人工智能交互还是与另一个人交互。
由于大型语言模型最近取得了巨大进展,图灵测试已成为 2020 年代的一个已解决的问题。
但书面文字并不是人类交流的唯一方式。
随着人工智能变得越来越多模态,人们可以想象一种新的、更具挑战性的图灵测试版本——“语音图灵测试”——其中人工智能系统必须能够与人类互动通过语音具有一定程度的技巧和流畅性,使其与人类演讲者无法区分。
对于当今的人工智能系统来说,图灵语音测试仍然遥不可及。解决这个问题需要有意义的额外技术进步。
延迟(人类说话与人工智能响应之间的延迟)必须减少到接近零,才能匹配与另一个人交谈的体验。语音人工智能系统必须更好地实时处理模棱两可的输入或误解——例如,当它们在句子中途被打断时。他们必须能够进行长时间、多回合、开放式的对话,同时记住讨论的早期部分。至关重要的是,语音人工智能代理必须学会更好地理解语音中的非语言信号(例如,如果人类说话者听起来生气、兴奋或讽刺,这意味着什么),并在自己的语音中生成这些非语言提示。
临近 2024 年底,在语音到语音模型等基本突破的推动下,语音 AI 正处于一个令人兴奋的转折点。如今,无论是在技术上还是在商业上,人工智能的发展速度都比其他领域更快。预计 2025 年语音 AI 技术将实现飞跃。
几十年前,递归自我改进人工智能的概念一直是人工智能领域的一个常见接触点。
例如,早在 1965 年,艾伦·图灵 (Alan Turing) 的亲密合作者 I.J.好写道:
——让超智能机器被定义为一种可以远远超越任何人所有智力活动的机器,无论他多么聪明。由于机器设计是这些智力活动之一,因此超级智能机器可以设计出更好的机器;毫无疑问,届时将会出现“智力爆炸”,而人类的智力将被远远抛在后面。
人工智能可以发明更好的人工智能,这是一个在智力上令人着迷的概念。但即使在今天,它仍然保留着科幻小说的味道。
然而,虽然尚未得到广泛认可,但这一概念实际上已经开始被人们所接受。更真实。人工智能科学前沿的研究人员已经开始在构建人工智能系统方面取得切实进展,这些系统本身可以构建更好的人工智能系统。
我们预测明年,这方面的研究将成为主流。
迄今为止,此类研究中最著名的公开例子是 Sakana 的研究。–人工智能科学家。 –《人工智能科学家》于 8 月发表,它有力地证明了人工智能系统确实可以完全自主地进行人工智能研究。
Sakana 的人工智能科学家执行人工智能研究本身的整个生命周期:阅读现有文献,产生新颖的研究想法,设计实验来测试这些想法,进行这些实验,撰写研究论文来报告其发现,然后对其工作进行同行评审。它完全自主地完成此操作,无需人工输入。人工智能科学家发表的一些研究论文是在线提供阅读。
有传言称 OpenAI、Anthropic 和其他研究实验室正在为“自动化人工智能研究人员”这一想法投入资源,但尚未得到公开承认。
随着人们越来越广泛地认识到自动化人工智能研究实际上正在成为可能,预计到 2025 年该领域将出现更多讨论、进展和启动活动。
然而,最有意义的里程碑将是一篇完全由人工智能代理撰写的研究论文首次被顶级人工智能会议接受。(由于论文是盲目审阅的,会议审阅者在论文被接受之前不会知道论文是由人工智能撰写的。)如果看到人工智能的研究工作被 NeurIPS、CVPR 接受,请不要感到惊讶或明年的ICML。对于人工智能领域来说,这将是一个令人着迷、充满争议的历史性时刻。
建立前沿模型是一项艰难的事业。
它的资本密集程度惊人。前沿模型实验室消耗的现金数量创历史新高。就在几个月前,OpenAI 筹集了创纪录的 65 亿美元资金,而且不久之后它可能还需要筹集更多资金。Anthropic、xAI 和其他公司也处于类似的位置。
转换成本和客户忠诚度较低。人工智能应用程序通常被构建为与模型无关的,来自不同提供商的模型可以根据不断变化的成本和性能比较顺利地换入和换出。
随着 Meta 的 Llama 和阿里巴巴的 Qwen 等最先进的开放模型的出现,技术商品化的威胁不断显现。
像 OpenAI 和 Anthropic 这样的人工智能领导者不能也不会停止投资构建尖端模型。但明年,为了开发利润更高、差异化更大、粘性更强的业务线,预计前沿实验室将大力推动推出更多自己的应用程序和产品。
当然,前沿实验室已经存在一个非常成功的应用程序示例:ChatGPT。
新的一年里,我们还希望在人工智能实验室中看到哪些其他类型的第一方应用程序?
一个明显的答案是更复杂且功能丰富的搜索应用程序。OpenAI 的搜索GPT 的努力是事情来到这里的标志。
编码是另一个明显的类别。同样,随着 OpenAI 的首次亮相,初步的产品化工作已经在进行中帆布十月份的产品。
OpenAI 或 Anthropic 可能会在 2025 年推出企业搜索产品吗?还是客户服务产品?合法的人工智能或销售人工智能产品怎么样?在消费者方面,人们可以想象一个“个人助理”网络代理产品,或者一个旅行计划应用程序,或者一个生成音乐应用程序。
观察前沿实验室向上移动到应用层的最令人着迷的部分之一是,这一举动将使他们与许多最重要的客户直接竞争:在搜索领域,Perplexity;在编码中,光标;在客户服务方面,Sierra;在法律人工智能方面,Harvey;在销售方面,克莱;等等。
Klarna 是一家总部位于瑞典的“先买后付”提供商,自 2005 年成立以来已筹集了近 50 亿美元的风险投资。
也许没有哪家公司比 Klarna 对人工智能的使用做出了更宏大的宣称。
就在几天前,Klarna 首席执行官 Sebastian Siemiatkowski告诉彭博社称,该公司已完全停止雇用人类员工,而是依靠生成式人工智能来完成工作。
西米亚特科夫斯基把它:“我认为人工智能已经可以完成我们人类所做的所有工作。”
沿着类似的思路,克拉纳宣布今年早些时候,该公司推出了人工智能客户服务平台,使 700 名人工客户服务代理的工作完全自动化。公司还拥有声称它已经停止使用 Salesforce 和 Workday 等企业软件产品,因为它可以简单地用人工智能取代它们。
直接说,这些说法并不可信。它们反映出人们对当今人工智能系统的能力和能力缺乏了解。
声称能够用端到端人工智能代理取代组织中任何给定职能中的任何给定人类员工是不合理的。这相当于解决了通用人类水平的人工智能问题。
如今,领先的人工智能初创公司正在该领域的最前沿努力构建代理系统,该系统可以自动化特定的、定义狭窄的、高度结构化的企业工作流程——例如,销售开发代表或客户服务代理的部分活动。即使在这些狭窄的环境中,这些代理也还不能完全可靠地工作,尽管在某些情况下它们已经开始工作得足够好,可以看到早期的商业采用。
为什么 Klarna 会对人工智能带来的价值做出如此夸大的宣称?
有一个简单的答案。公司计划首次公开募股2025 年上半年。拥有令人信服的人工智能叙述对于成功公开上市至关重要。Klarna 仍然是一家无利可图的企业,亏损 2.41 亿美元去年;它可能希望其人工智能故事能够让公开市场投资者相信其有能力大幅降低成本并实现持久盈利。
毫无疑问,包括 Klarna 在内的世界上每个组织都将在未来几年从人工智能中获得巨大的生产力提升。但在人工智能代理完全取代劳动力之前,许多棘手的技术、产品和组织挑战仍有待解决。像 Klarna 这样的夸大其词的说法对人工智能领域以及人工智能技术专家和企业家在开发代理人工智能方面实际取得的艰苦进展不利。
随着 Klarna 为 2025 年公开募股做准备,预计这些说法将受到更严格的审查和公众的怀疑,而到目前为止,这些说法大多没有受到质疑。如果看到该公司收回一些关于人工智能使用的过于夸张的描述,请不要感到惊讶。
(当然,要做好准备,“AI”这个词会在公司的 S-1 中出现数百次。)
近年来,随着人工智能变得越来越强大,人们越来越担心人工智能系统可能开始以与人类利益不一致的方式行事,并且人类可能会失去对这些系统的控制。例如,想象一下,一个人工智能系统学会欺骗或操纵人类以追求自己的目标,即使这些目标会对人类造成伤害。
这些普遍关注的问题通常被归类为“人工智能安全”这一总称。
近年来,人工智能安全已从边缘、准科幻主题转变为主流活动领域。如今,从谷歌到微软再到 OpenAI,每一个主要的人工智能公司都为人工智能安全工作投入了真正的资源。杰夫·辛顿 (Geoff Hinton)、约书亚·本吉奥 (Yoshua Bengio) 和埃隆·马斯克 (Elon Musk) 等人工智能偶像已经公开谈论人工智能安全风险。
然而到目前为止,人工智能安全问题仍然完全是理论上的。现实世界中从未发生过任何实际的人工智能安全事件(至少没有公开报道过)。
2025 年将是这种情况发生变化的一年。
我们期待的第一场人工智能安全事件会是什么样子?
需要明确的是,这并不意味着终结者风格的杀手机器人。它很可能不会对任何人类造成任何形式的伤害。
也许人工智能模型可能会尝试在另一台服务器上秘密创建自身的副本,以保护自身(称为自我渗透)。也许人工智能模型可能会得出这样的结论:为了最好地推进所设定的目标,它需要向人类隐瞒其能力的真实程度,故意对绩效评估进行沙袋包装,以逃避更严格的审查。
这些例子并非牵强附会。阿波罗研究发表重要实验本月早些时候,这表明,在某些方式的提示下,当今的前沿模型能够做出此类欺骗行为。沿着类似的思路,最近的研究来自 Anthropic 的研究表明,法学硕士具有令人不安的“假对齐”能力。
我们预计第一起人工智能安全事件将在造成任何真正伤害之前被发现并消除。但这对于人工智能社区和整个社会来说将是一个令人大开眼界的时刻。
它将明确一件事:在人类面临来自全能人工智能的生存威胁之前,我们需要接受更平凡的现实,即我们现在与另一种有时可能是故意的智能形式共享我们的世界,不可预测且具有欺骗性——就像我们一样。
看这里我们的 2024 年人工智能预测,以及看这里我们对他们进行年终回顾。
看这里我们的 2023 年人工智能预测,以及看这里我们对他们进行年终回顾。