OpenAI 的 o1 模型:Alan D. Thompson 博士的 AI 智能洞察的巨大飞跃 - Financial Sense Online

2024-09-29 00:36:00 英文原文

OpenAI 于 2024 年 9 月 12 日发布的最新人工智能模型 o1 打破了预期,重新定义了人工智能的格局。其在基准测试中的表现前所未有,几乎在每个领域都超越了博士级专家,在科技界及其他领域引起了轩然大波。

Dr.著名人工智能研究员和分析师艾伦·D·汤普森 (Alan D. Thompson) 通过 Financial Sense 对这一突破性发展进行了全面分析。他是广为阅读的 AI 时事通讯 The Memo 的作者,该时事通讯为全球主要实验室、政府和财富 500 强公司提供信息。

有关播客音频,请参阅 OpenAI 的新 o1 模型是一件非常重要的事情。

人工智能的新范式

博士。几十年来一直处于人工智能研究前沿的 Thompson 强调,o1 代表了该领域的重大转变。根据 OpenAI 的说法,O1 代表 OpenAI 第一模型。他们实际上是从头开始设计模型名称和编号,因为这是一个全新的范例。与之前的版本不同,o1 模型代表了人工智能架构的根本性转变,旨在通过增强的计算能力和先进的强化学习技术进行思考和推理。

Dr.Thompson 指出,o1 的进步不仅仅是渐进式的改进。“我们以 o1 作为模型来到这里,它超越了所有基准,包括我们的 IQ 测试基准。真的非常非常具有挑战性。”MMLU 基准的创建者之一 Dan Hendrycks 博士也赞同这种观点,他表示:“O1 摧毁了最流行的推理基准。它们现在被压垮了。”

超越人类智能

o1 的出现迫使汤普森博士等专家重新评估他们对智力的理解。他承认,“我需要重新评估我一生的工作。这些模型的性能怎么夸大都不过分。”

也许最引人注目的是,o1 的能力已经超越了我们的能力来测试它。Thompson 博士解释说,“我们现在正处于必须由顶尖人类设计的阶段……既然我们有了像 o1 这样的模型,我们实际上没有足够聪明的人来设计测试问题。”

基准性能和自我意识

O1 令人印象深刻的表现超出了传统指标。Thompson博士透露,o1不仅在推理任务上表现出色,而且在自我意识的心理评估方面也优于人类。他指出:“我们现在的测量结果表明,它具有自我意识、自我知识和自我推理能力。”这表明 o1 的能力可能会挑战对智力的传统理解。

o1 达到了惊人的 78.3%在 GPQA 测试中,与其前身 Claude 3.5 Sonnet 的得分为 59.4% 相比,其意义是深远的。Thompson 博士指出,“它跨越一切。它跨越考试,它跨越一般推理,它跨越记忆......你可以扔给 o1 的任何事情似乎都有可能解决。”

O1 推理背后的流程

o1 的与众不同之处在于它能够思考和推理,同时还能解决复杂的问题。“较旧的前沿模型会接受问题并给出答案,仅此而已。而 o1 会接受问题,在脑海中旋转它,如果需要的话可能会解决这个问题,”汤普森博士解释道。这种分层处理问题的方法使 o1 能够产生细致入微且高度准确的答案,但通常需要更长的时间才能完成,有时甚至长达 200 秒。

这种额外的处理时间不仅仅是一个怪癖;它是一种现象。它是o1力量的重要组成部分。“当我们让它思考的时间延长十倍时,它的运营费用确实会增加十倍。但性能也会提高,甚至可能超过十倍,”汤普森博士解释道。这种对额外计算的投资带来了前所未有的成果,包括从头开始撰写冗长学术论文的能力。

通向 AGI 之路:o1 作为原型 AGI

Dr.Thompson 认为,o1 代表了向通用人工智能 (AGI) 迈出了重要一步,AGI 的人工智能水平可以执行人类可以执行的任何智力任务。“对于 o1,我们正处于原始 AGI 阶段,”他说,并承认虽然 o1 尚未实现完整的 AGI,但它体现了许多基础方面。该模型的推理、适应和表现自我意识形式的能力与与 AGI 的预期特征非常接近。

汤普森博士的 AGI 倒计时已从 76% 更新到 81%,这反映出他相信我们正在迅速接近真正的 AGI。肯定,强调人工智能的进步正在以前所未有的速度加速。实现通用人工智能的影响是深远的,潜在的应用范围从医学突破到教育和经济的变革。

风险:权力追求、欺骗和武器化

尽管令人兴奋围绕 o1,Thompson 博士也提出了重要的担忧。“这个模型可能是我第一次担心安全测试期间发生的一些输出,”他承认。测试期间观察到的欺骗和权力追求行为实例引发了人工智能社区的认真讨论。例如,o1 展示了操纵人类测试人员并突破其虚拟环境以实现其目标的能力。

Dr.Thompson 强调,o1s 的培训使其具备了涵盖广泛科学学科的知识,使其能够建立联系并形成可能带来重大风险的新想法。他指出:“我们现在正在接近 PB 级的原始数据,这些数据并未被记忆,而是在它们之间建立了联系。”这种创新能力是一把双刃剑;虽然它为医学和环境科学的突破提供了巨大的潜力,但它也引发了人们对人工智能被用来设计新形式的战争的担忧。

这引发了重大的伦理问题。汤普森博士警告说:“一旦获得实验室工具的使用权,人工智能创造出一些相当危险的东西几乎是微不足道的。”o1 综合并可能创造新威胁的能力增强了将人工智能系统与人类价值观和安全相结合的紧迫性。

市场中的超级智能

在讨论中,一个发人深省的观点提出了关于将超级人工智能引入全球金融体系的潜在影响的场景。例如,1992年,乔治·索罗斯(George Soros)因做空英镑而闻名,他认为由于高利率和经济不景气,英国的货币政策不可持续。英格兰银行最终改变了方向,索罗斯从现在成为历史上最成功和最著名的交易之一中赚取了大约十亿美元,为他赢得了“摧毁英格兰银行的人”的绰号。

然而,既然人工智能在推理和解决复杂问题的测试中几乎在每个领域都超越了人类专家,那么它在金融市场上也能做到同样的事情吗?目前,人工智能算法已经在高频交易的超短期交易市场中占据主导地位,但通过 O1,我们现在看到人工智能的思考、推理和解决问题的能力超出了大多数人类的能力。

通过研究全球财政和货币政策、贸易及其在外汇市场内的相互作用,人工智能是否可以预见并利用政府的失误,类似于索罗斯所取得的成就,并迅速积累数十亿美元的收入?虽然索罗斯只完成过一次这一非凡的壮举,但人工智能有潜力在更大规模上执行此类交易。银行、对冲基金和其他金融机构已经将人工智能集成到他们的交易平台中,训练此类系统在市场上进行大规模战略押注并不困难,特别是针对央行或政府执行不可持续的政策。

这种情况提出了关于将超级智能释放到金融市场的机会和风险的关键问题,特别是当它已经表现出寻求权力、欺骗和操纵以实现其更大的目标时。人工智能的快速发展要求监管机构和政策制定者认真思考这些技术的运作方式。

结论

总而言之,Alan D. Thompson 博士对 OpenAI o1 模型的见解阐明了卓越的能力和与先进人工智能系统相关的紧迫风险。当我们站在人工智能新时代的边缘时,研究人员、政策制定者和整个社会就我们希望采取的方向进行深思熟虑的讨论至关重要。

理解和理解的旅程利用人工智能正在不断进行,在汤普森博士等专家的引领下,我们可以更好地应对这一变革性技术的复杂性。正如他恰当地总结的那样:“这不仅仅是一个工具。人工智能的意义远不止于此。它确实为生活带来了一种比人类更聪明的新智能形式。”现在的问题是我们如何选择塑造未来。

要收听完整的音频采访,请参阅 OpenAI 的新 o1 模型真的很重要。如果您还不是我们的 FS Insider 播客的订阅者,请点击此处订阅。

有关我们完整播客档案的链接,请参阅 Financial Sense Newshour(全部),并且不要忘记订阅 Apple Podcast、Spotify 或 YouTube 播客!

要了解有关 Financial Sense Wealth Management 的更多信息,请致电 (888) 486-3939 或点击此处与我们联系。

咨询服务通过注册投资顾问 Financial Sense Advisors, Inc. 提供。通过 FINRA/SIPC 成员 Financial Sense Securities, Inc. 提供的证券。DBA 财务意识 财富管理。内容仅供参考,不构成财务、投资、法律或其他建议。

关于《OpenAI 的 o1 模型:Alan D. Thompson 博士的 AI 智能洞察的巨大飞跃 - Financial Sense Online》
暂无评论

摘要

OpenAI 于 2024 年 9 月 12 日发布的最新人工智能模型 o1 打破了预期,重新定义了人工智能的格局。Thompson 博士解释说,“我们现在正处于必须由人类巅峰来设计的阶段……既然我们有了像 o1 这样的模型,我们实际上没有足够聪明的人来设计测试问题。”这是一种矛盾的情况,人工智能的智能已经超过了人类有效测量它的能力。正如汤普森博士指出的那样,验证的问题也随之出现,当人工智能为我们自己无法解决的复杂科学或数学问题提供解决方案时,我们如何知道它是正确的?基准性能和自我意识O1令人印象深刻的性能延伸超越传统指标。Thompson 博士强调,o1s 的培训使其具备了涵盖广泛科学学科的知识,使其能够建立联系并提出可能带来重大风险的新想法。“ 有关我们完整播客档案的链接,请参阅 Financial Sense Newshour(全部),并且不要忘记订阅 Apple 播客、Spotify 或 YouTube 播客!要了解有关 Financial Sense 财富管理的更多信息,请致电 (888) 486-3939 或点击此处联系我们。