作者:By: Ted Lango
随着Openai最新型号O3的发布,关于是否已经实现了人工智能的新辩论。对此的标准怀疑者的反应是,对AGI的定义没有共识。的确如此,但是如果Agi是一个重要的里程碑,那么错过了这一点,那么在建造时是否应该显而易见?
在本文中,我们认为Agi不是一个里程碑。它并不代表AI系统属性或影响的不连续性。如果公司宣布它已根据任何定义建立了AGI,则它不是可行的事件。它将对企业,开发商,决策者或安全没有任何影响。具体来说:
即使通用AI系统达到了一些商定的能力阈值,我们也需要许多互补的创新,使AI可以跨行业扩散以实现其富有成效的影响。扩散发生在人类(和社会)的时间标准,而不是以技术发展的速度。
担心AGI和灾难性风险通常将能力与力量混为一谈。一旦我们区分了两者,我们就可以拒绝人工智能发展中一个关键点的观念,在该发展中,人类保持控制不可行。
Agi的扩散定义是症状,而不是疾病。AGI之所以重要,是因为其假定的影响,但必须根据AI系统本身的特性来定义。但是,系统属性与影响之间的联系是微弱的,很大程度上取决于我们如何设计AI系统运行的环境。因此,给定的AI系统是否会继续产生变革性的影响是尚待确定目前该系统已释放。因此,确定AI系统构成AGI只能有意义地做出的决心追溯。
实现AGI是OpenAI和AI研究社区等公司的明确目标。它被视为一个里程碑,就像建造和交付核武器一样是曼哈顿项目的关键目标。
这一目标是曼哈顿项目中的里程碑是有意义的,原因有两个。第一个是可观察性。在开发核武器时,毫无疑问,您是否达到目标 - 爆炸表现出可观察性。第二个是直接影响。核武器的使用导致了第二次世界大战的快速终结。它也迎来了新的世界秩序 -长期转型地缘政治。
为了继续阅读本文,点击这里。