近年来,大型语言模型(LLMS)的成功吸引了AI领域。这些模型最初是为自然语言处理而设计的,已演变为强大的推理工具,能够通过类似人类的逐步思考过程来解决复杂问题。但是,尽管具有出色的推理能力,但LLMS仍具有重要的缺点,包括高计算成本和缓慢的部署速度,这使得它们对于在资源受限的环境(例如移动设备或边缘计算)中的现实使用中不切实际。这导致人们对开发较小,更高效的模型的兴趣日益增加,这些模型可以提供类似的推理能力,同时最大程度地减少成本和资源需求。本文探讨了这些小推理模型的兴起,它们对AI的未来的潜力,挑战和影响。
观点的转变
对于AI最近的大部分历史,该领域都遵循了缩放定律的原则,这表明模型性能可以随着数据,计算功率和模型大小的增加而预测。尽管这种方法产生了强大的模型,但它也导致了重大的权衡,包括高基础设施成本,环境影响和潜伏期问题。并非所有应用都需要具有数百十亿个参数的大型模型的全部功能。在许多实际情况下,例如在设备助手,医疗保健和较小的模型中,如果可以有效推理,则可以取得相似的结果。
了解AI中的推理
AI中的推理是指模型遵循逻辑链,理解因果关系,推论含义,计划步骤中的含义并确定矛盾的能力。对于语言模型,这通常意味着不仅要检索信息,还意味着通过结构化的逐步方法来操纵和推断信息。通常,通过微调LLMS来实现这种推理水平,以在获得答案之前执行多步理学。尽管有效,这些方法需要大量的计算资源,并且部署可能会缓慢且昂贵,这引起了人们对其可及性和环境影响的担忧。
了解小推理模型
小推理模型旨在复制大型模型的推理能力,但在计算能力,内存使用和延迟方面具有更高的效率。这些模型经常采用一种称为的技术知识蒸馏,一个较小的模型(学生)从较大的预训练模型(教师)中学习。蒸馏过程涉及对较大数据生成的数据训练较小的模型,以传递推理能力。然后,对学生模型进行微调以提高其性能。在某些情况下,强化学习使用专门的领域特定奖励功能,可以进一步增强模型的执行特定于任务推理的能力。
小推理模型的兴起和进步
小型推理模型发展中的一个显着里程碑是发布DeepSeek-R1。尽管接受了相对适量的较旧GPU的培训,但DeepSeek-R1还是在MMLU和GSM-8K等基准上的OpenAi S O1(例如Openai s o1)的性能媲美。这一成就导致了对传统缩放方法的重新考虑,该方法假设较大的模型本质上是优越的。
DeepSeek-R1的成功可以归因于其创新的培训过程,该过程将大规模的强化学习结合在一起而不依赖于早期阶段的监督微调。这种创新导致了DeepSeek-R1-Zero与大型推理模型相比,该模型表现出令人印象深刻的推理能力。进一步的改进,例如使用冷启动数据,增强了模型的连贯性和任务执行,尤其是在数学和代码等领域。
此外,事实证明,蒸馏技术对于从较大的模型开发较小,更有效的模型至关重要。例如,DeepSeek发布了其模型的蒸馏版本,尺寸从15亿到700亿个参数不等。使用这些模型,研究人员培训了一个相对较小的模型DeepSeek-R1-Distill-Qwen-32b表现优于表现Openai的O1米尼跨越各种基准。这些模型现在可以使用标准硬件部署,使它们在广泛的应用程序中更可行。
小型型号可以匹配GPT级别的推理吗
为了评估小型推理模型(SRMS)是否可以与GPT这样的大型模型(LRM)的推理能力匹配,评估其在标准基准测试上的性能很重要。例如,DeepSeek-R1模型得分大约0.844MMLU测试,可与大型模型(例如O1)相媲美。在GSM-8KDataSet,重点介绍级数学,DeepSeek-R1的蒸馏模型成就了顶级性能,超过O1和O1米尼。
在编码任务中,例如livecodebench和CodeForces,DeepSeek-R1的蒸馏模型执行与O1-Mini和GPT-4O相似,在编程中表现出强大的推理能力。但是,较大的型号仍然有一个边缘在需要更广泛的语言理解或处理长上下文窗口的任务中,因为较小的模型往往更具体。
尽管有优势,但小型模型仍可能在扩展的推理任务或面对分发数据时挣扎。例如,在LLM国际象棋模拟中,DeepSeek-R1比大型模型犯了更多的错误,这表明其长期保持专注和准确性的能力限制。
权衡和实践意义
将SRM与GPT级LRMS进行比较时,模型大小和性能之间的权衡至关重要。较小的模型需要更少的内存和计算能力,使其非常适合边缘设备,移动应用程序或需要离线推理的情况。这种效率导致运营成本降低,诸如DeepSeek-R1之类的模型高达96%便宜比O1这样的较大型号运行。
但是,这些效率提高带来了一些妥协。较小的模型通常用于特定任务,与较大的型号相比,这可能会限制其多功能性。例如,虽然DeepSeek-R1在数学和编码方面表现出色,但缺乏多模式功能,例如解释图像的能力,诸如GPT-4O之类的较大模型可以处理。
尽管存在这些局限性,但小推理模型的实际应用还是广泛的。在医疗保健方面,它们可以为分析标准医院服务器的医疗数据提供动力。在教育方面,它们可用于开发个性化的辅导系统,向学生提供逐步的反馈。在科学研究中,他们可以在数学和物理等领域进行数据分析和假设检验。诸如DeepSeek-R1之类的模型的开源性质也促进了协作并使对AI的访问权限,使较小的组织能够从先进的技术中受益。
底线
语言模型转化为较小的推理模型是AI的重大进步。尽管这些模型可能尚未完全匹配大语言模型的广泛功能,但它们在效率,成本效益和可访问性方面具有关键优势。通过在推理能力和资源效率之间达到平衡,较小的模型将在各种应用程序中发挥关键作用,从而使AI更实用和可持续性。