OpenAI 最近推出的 o3 模型据称是迄今为止最强大的人工智能,但有一个很大的缺点:运行成本高昂,TechCrunch报告。
就在一周前宣布,o3 使用一种称为测试时计算的技术对问题进行“推理”,即在给出答案之前需要更多的时间来“思考”并探索多种可能性。因此,OpenAI 工程师希望 AI 模型能够对复杂的提示做出更好的响应,而不是直接得出错误的结论。
它似乎起了作用,至少在某种程度上是这样。在其最强大的“高计算模式”下,o3 在旨在测试语言模型的 ARC-AGI 基准测试中得分为 87.5%,根据该测试的创始人弗朗索瓦·乔莱 (François Chollet)。这几乎是之前 o1 型号最高得分(仅 32%)的三倍。
然而,所有这些挑剔的想法都伴随着高昂的费用。为了实现这一高水位线,o3 每个任务使用的计算能力远远超过 1,000 美元 — 计算能力是 o3 低功耗版本的 170 多倍,比其前身高出很多倍。成本更低每项任务超过 4 美元。
这些成本使问题复杂化业界的主张o3 的表现彻底消除了人们对通过“扩展”或通过为人工智能模型提供更多处理能力和训练数据来改进人工智能模型的担忧,已经碰壁了。
一方面,o3 的得分比三个月前发布的 o1 高出近三倍,这似乎有充分的证据表明人工智能的进步并没有放缓。
但对缩放的批评是它会带来收益递减。虽然这里的收益在很大程度上是通过改变人工智能模型“推理”的方式而不是单独扩展来实现的,但增加的成本很难忽视。
即使是 o3 的低计算版本(在基准测试中得分仍达到突破性的 76%),每个任务的成本也约为 20 美元。这是一个相对便宜的价格,但仍然比其前辈贵很多倍,而且 ChatGPT Plus 的每月费用仅为 25 美元,目前尚不清楚在不将 OpenAI 深入应用的情况下,面向用户的产品能够变得更加智能。红色的。
在一个博客文章在解释基准测试结果时,Chollet 断言,尽管 o3 正在接近人类的性能水平,但它“成本高昂,而且还不太经济”。
他写道:“你可以支付一个人来解决 ARC-AGI 任务,每个任务大约 5 美元(我们知道,我们就是这么做的),而消耗的能源却只有几美分。”
然而,他坚信“未来几个月和几年内,性价比可能会大幅提高。”
对此,我们只能拭目以待。现在,o3尚未向公众开放,其“迷你”版本计划于一月份推出。
有关人工智能的更多信息:Facebook 计划向平台注入人工智能用户