加入我们的每日和每周的新闻通讯,获取有关行业领先的AI覆盖范围的最新更新和独家内容。了解更多
遥远的地平线总是模糊的,细微的细节被纯粹的距离和大气的雾度所掩盖的。这就是为什么预测未来如此不精确的原因:我们看不到我们前面的形状和事件的概述。相反,我们采取有根据的猜测。
新出版的AI 2027场景由AI研究人员和预报员团队开发OpenaiAI政策中心为未来提供了2到3年的详细预测,其中包括特定的技术里程碑。在近期,它对我们不久的将来的AI非常清楚地说明了这一点。
在广泛的专家反馈和方案计划练习中,AI 2027概述了预期的AI功能的四分之一进步,尤其是实现高级推理和自主权的多峰模型。使这一预测特别值得注意的原因既是它的特殊性又是其贡献者的信誉,他们直接深入了解当前的研究管道。
最值得注意的预测是人工通用情报(AGI)将在2027年实现,人工超智能(ASI)将在几个月后。从科学研究到创造性的努力,AGI几乎所有认知任务都匹配或超过人类的能力,同时证明适应性,常识推理和自我支持。ASI走得更远,代表急剧超越人类智能的系统,可以解决我们甚至无法理解的问题的能力。
像许多预测一样,这些都是基于假设,其中最重要的是AI模型和应用程序将继续以指数进步,就像过去几年一样。因此,这是合理的,但不能保证会期望指数进步,尤其是因为这些模型的扩展现在可能正在达到减少的回报。
并非每个人都同意这些预测。艾伦人工智能研究所首席执行官阿里·法哈迪(Ali Farhadi)告诉《纽约时报》:``我全部用于预测和预测,但是这个[AI 2027]的预测似乎并不是基于科学证据,也不是基于AI中事物如何发展的现实。”
但是,还有其他人认为这种进化是合理的。人类联合创始人杰克·克拉克(Jack Clark)在他的导入AIAI 2027的通讯是:迄今为止生活在指数中的最佳待遇。他补充说,这是一个从技术上讲,对未来几年的AI开发的叙事。该时间轴也与人类首席执行官Dario Amodei提出的时间表相吻合。而且,Google DeepMind在说 新研究论文AGI可以在2030年到达。
巨大的加速:没有先例的破坏
这似乎是一个吉祥的时期。历史上有类似的时刻,包括印刷机的发明或电力传播。但是,这些进步需要数年和几十年才能产生重大影响。 这
Agi的到来感觉与众不同,可能令人恐惧,尤其是在即将到来的情况下。AI 2027描述了一种情况,由于与人类价值观的不对准,超级智能AI破坏了人类。如果它们是正确的,那么人类的最结果风险现在可能与您的下一个智能手机升级在同一计划范围内。Google DeepMind论文指出,人类的灭绝是AGI的可能结果,尽管在他们看来不太可能。
意见变化缓慢,直到向人们提供压倒性的证据。这是托马斯·库恩(Thomas Kuhn)奇异作品的收获科学革命的结构库恩提醒我们,世界观不会在一夜之间转移,直到他们突然间,他们做到了。随着AI,这种转变可能已经在进行。
未来靠近
在出现之前大型语言模型(LLMS)和Chatgpt,对AGI的时间表投影比今天更长。专家和预测市场之间的共识使2058年左右的AGI预计到达中位数。2023年之前,杰弗里·欣顿(Geoffrey Hinton) - 艾伊(Ai)的教父之一和图灵奖得主 -思想Agi是30至50年甚至更长的时间。可以在2028年到达。

如果AGI在接下来的几年中确实到达,并且随后迅速是ASI,对人类有许多影响。写入财富,杰里米·卡恩(Jeremy Kahn)说,如果Agi到达未来几年,这确实可能导致大量失业,因为许多组织都可以自动发挥作用。”
为期两年的AGI跑道为个人和企业提供了不足的宽限期。客户服务,内容创建,编程和数据分析等行业在重新培训基础架构之前可能会面临戏剧性的动荡。只有在经济衰退发生在这个时间范围内,当时公司已经在寻求降低工资成本并经常取代具有自动化的人员。
cogito,ergo - ai?
即使AGI并没有导致大量的失业或物种灭绝,也存在其他严重的后果。自从理性时代以来,人类的生存就一直基于我们重要的信念,因为我们认为。
这种思想定义我们存在的信念具有深厚的哲学根源。是在1637年写作的René笛卡尔,他阐明了现在著名的短语:Je-pense,donc jesuisâ(我认为,所以我是)。后来他将其翻译成拉丁语:Cogito,Ergo总和……在这样做时,他提出可以在个人思想的行为中找到确定性。即使他被他的感官欺骗或被他人误导,他认为他的事实证明了他的存在。
从这种角度来看,自我锚定在认知中。当时这是一个革命性的思想,引起了启蒙的人文主义,科学方法,最终是现代民主和个人权利。作为思想家的人类成为现代世界的核心人物。
这引起了一个深刻的问题:如果机器现在可以思考或似乎思考,我们将思想外包给AI,这对自我的现代概念意味着什么?一个最近的研究报告404媒体探索这个难题。它发现,当人们严重依靠生成的AI进行工作时,他们会从事较少批判的思维,随着时间的流逝,这可能会导致应保留的认知能力的恶化。”
我们从这里去哪里?
如果AGI在接下来的几年中或此后不久 - 我们必须迅速努力应对它的影响,而不仅仅是对工作和安全的影响,而是对我们的身份。而且,我们必须这样做,同时还承认其以前所未有的方式加速发现,减少痛苦和扩展人类能力的非凡潜力。例如,Amodei表示,强大的AI将使100年的生物学研究及其益处(包括改善的医疗保健)被压缩到5到10年中。”
AI 2027中提出的预测可能是正确的,也可能是不正确的,但它们是合理的和挑衅的。而且这种合理性就足够了。作为代理机构以及公司,政府和社会的成员,我们必须立即采取行动为可能发生的事情做准备。”
对于企业而言,这意味着要对技术AI安全研究和组织的弹性进行投资,从而创造了整合AI功能的角色,同时放大了人类优势。对于政府,它需要加速发展监管框架,以解决诸如模型评估和长期存在风险之类的直接关注。对于个人而言,这意味着要拥抱持续学习,专注于独特的人类技能,包括创造力,情感智力和复杂的判断力,同时与不会减少代理机构的AI工具建立健康的工作关系。
关于遥远未来的抽象辩论的时间已经过去了。迫切需要进行近期转化的具体准备。我们的未来不会仅由算法撰写。从今天开始,这将由我们做出的选择以及我们坚持的价值观所塑造。
加里·格罗斯曼(Gary Grossman)是技术实践的EVP爱德曼以及Edelman AI卓越中心的全球领导。