周二,Openai宣布O3-PRO是其功能最强大的模拟推理模型的新版本,现在可以用于Chatgpt Pro和Team用户,替换了型号选择器中的O1-Pro。与O1-Pro相比,该公司还将O3-Pro的API定价降低了87%,同时将O3价格降低了80%。尽管“推理”对于某些分析任务很有用,但新研究提出了有关该单词在应用于这些AI系统时实际含义的基本问题。
我们将在一分钟内更深入地研究“推理”,但首先,让我们检查一下新功能。露天最初推出O3(非Pro)在4月,O3-Pro模型侧重于数学,科学和编码,同时添加了Web搜索,文件分析,图像分析和Python执行等新功能。由于这些工具集成缓慢的响应时间(比已经慢的O1-PRO更长),因此OpenAI建议使用该模型来解决精确度更重要的复杂问题。但是,它们不一定是少列而不是“非争议”的AI模型(它们仍然引入事实错误),这在寻求准确的结果时是一个重要的警告。
除报告的绩效提高外,OpenAI宣布为开发人员降低了大幅降低的价格。O3-Pro的价格为每百万美元的投入令牌和80万美元的API输出令牌,使其比O1-Pro便宜87%。该公司还将标准O3型号的价格降低了80%。
与标准模型相比,这些降低通过推理模型高成本的主要问题之一。原始O1的价格为每百万美元的投入令牌15美元和每百万美元的产出代币60美元,而O3-Mini的价格为每百万美元的投入令牌为1110美元,每百万美元的产出代币4.40美元。
与通用模型(如GPT-4O)不同,它优先考虑速度,广泛的知识并使用户对自己感觉良好,O3-Pro使用经过经过经过经过经过经验的模拟推理过程来将更多的输出令牌用于解决复杂问题,从而使需要更深入分析的技术挑战更好。但这仍然并不完美。