加入我们的每日和每周的新闻通讯,获取有关行业领先的AI覆盖范围的最新更新和独家内容。了解更多
来自Meta的研究人员公平团队和耶路撒冷希伯来大学已经发现,迫使大型语言模型少,实际上会改善他们在复杂的推理任务上的表现。
这学习今天发布的发现,AI系统中的推理过程较短,导致更准确的结果,同时大大降低了计算成本。
在这项工作中,我们挑战了以下假设,即漫长的思维链会带来更好的推理能力,'在其论文中写下的作者不要过度思考。更喜欢较短的思维链来改善LLM推理……
这项研究与AI开发中的主要趋势相矛盾,在该趋势中,公司在扩大计算资源方面进行了大量投资,以允许模型通过冗长地执行广泛的推理思考链AI系统用来解决复杂问题的详细逐步轨迹。
当模型使用较短的推理链时,AI准确性会增加34%
研究人员发现,在相同的推理任务中,较短的推理链比对同一问题采样最长的链条更可能产生正确的答案。
作者指出,在证明令人印象深刻的结果时,[广泛的推理]会产生大量的计算成本和推理时间,这表明目前如何部署这些系统的效率低下。
基于这些发现,团队开发了一种名为â的新颖方法Short-m@k,它并行执行多次推理尝试,但是一旦完成了前几个过程,就会停止计算。然后,通过这些较短的链条中的多数投票选择了最终答案。
新的 - 短-m@kâ方法将计算成本削减40%,同时提高性能
对于部署大型AI推理系统的组织,其影响可能很大。研究人员发现,他们的方法可以将计算资源降低多达40%,同时保持与标准方法相同的性能水平。
论文指出,短-3@K虽然效率略低于Short-1@K,但在所有计算预算中始终超过多数投票,同时仍然更快(最高33%的壁时间缩短)。”
该论文的主要作者迈克尔·哈西德(Michael Hassid)和他的团队还发现,较短的推理示例训练AI模型改善了他们的表现,挑战了AI开发中的另一个基本假设。
研究人员写道,对较短的培训可以提高性能。”相反,对S1长的填充会增加推理时间,没有显着的性能提高。
科技巨头可以通过实施过度思考来节省数百万的方法
由于公司竞争越来越强大的模型来消耗庞大的计算资源,因此对AI行业的关键时刻是在关键时刻。
研究人员总结说,我们的发现表明,在推理LLM中重新考虑了当前的测试时间计算方法,强调更长的思考不一定会转化为改善的性能,并且可以违反直觉会导致结果降解。”
这项研究与其他突出的方法相反。以前的有影响力的研究,包括Openai的工作思想链的提示和自矛盾方法通常提倡更广泛的推理过程。它还基于最近的工作,例如普林斯顿和Google Deepmind思想树框架和卡内基·梅隆(Carnegie Mellon)自我refine方法学探索了AI推理的不同方法。
对于评估AI投资的技术决策者,研究表明,更大,计算更大的密集型并不总是更好。该研究通过优化效率而不是原始计算能力来指出潜在的成本节省和绩效提高。
在一个痴迷于扩大规模的行业中,事实证明,教AI更简洁的行为不仅可以节省计算能力 - 它也使机器更聪明。有时,即使是人工智能也可以从古老的智慧中受益:不要过分思考。