OC

Knowledge OS
鹦鹉螺口语
领先的人工智能专家推迟了其可能毁灭人类的时间表
2026-01-06 06:00:00 · 英文原文

领先的人工智能专家推迟了其可能毁灭人类的时间表

作者:Aisha Down

一位领先的人工智能专家卷起的 回来他对人工智能末日的时间表表示,人工智能系统需要比他最初预测的更长的时间才能自主编码,从而加速自身向超级智能的发展。

OpenAI 前员工 Daniel Kokotajlo 在 4 月份发布了人工智能2027在这一场景中,人工智能的不受控制的发展将导致超级智能的诞生,而超级智能——在智胜世界领导人之后——会毁灭人类。

该场景迅速获胜仰慕者和批评者。美国副总统 JD Vance 似乎参考去年 5 月,《AI 2027》在接受采访时讨论了美国与中国的人工智能军备竞赛。加里·马库斯 (Gary Marcus),纽约大学神经科学名誉教授被称为这篇文章是“虚构作品”,其各种结论是“纯粹的科幻小说胡言乱语”。

Daniel Kokotajlo
“我们的时间表……还更长一些,”丹尼尔·科科塔伊洛写道。照片:Twitter/X

变革性人工智能的时间表(有时称为 AGI(通用人工智能),或能够在大多数认知任务中取代人类的人工智能)已成为致力于人工智能安全的社区的固定项目。2022 年 ChatGPT 的发布大大加快了这些时间表,官员专家预测通用人工智能将在几十年或几年内到来。

Kokotajlo 和他的团队将 2027 年定为人工智能将实现“完全自主编码”的一年,尽管他们表示这是“最有可能”的猜测,而且其中一些猜测的时间表更长。现在,人们似乎对通用人工智能的迫在眉睫以及该术语是否有意义产生了一些疑问。

“过去一年里,很多人都在进一步推迟他们的时间表,因为他们意识到人工智能的性能是多么参差不齐,”人工智能风险管理专家、国际人工智能安全报告的作者之一马尔科姆·默里(Malcolm Murray)说。

– 为了实现像 AI 2027 这样的场景,[AI] 需要许多在现实世界的复杂性中有用的实用技能。我认为人们开始意识到现实世界中的巨大惯性将推迟彻底的社会变革。”

法国人工智能非营利组织 SaferAI 的执行董事亨利·帕帕达托斯 (Henry Papadatos) 表示,“AGI 这个术语从长远来看是有意义的,当时人工智能系统非常狭窄——下棋、下围棋”。“现在我们的系统已经相当通用了,这个术语的含义已经不再那么重要了。”

Kokotajlo 的 AI 2027 依赖于人工智能代理将在 2027 年完全自动化编码和人工智能研发的想法,从而导致“智能爆炸”,其中人工智能代理创建自己越来越聪明的版本,然后“在一个可能的结局中”到 2030 年中期杀死所有人类,以便为更多的太阳能电池板和数据中心腾出空间。

然而,在更新中,Kokotajlo 和他的合著者修改了他们对人工智能何时能够自主编码的预期,认为这可能发生在 2030 年代初,而不是 2027 年。新的预测将 2034 年设定为“超级智能”的新地平线,并且没有包含对人工智能何时可能毁灭人类的猜测。

– 事情的进展似乎比 AI 2027 场景要慢一些。我们的时间表比我们发布时的 2027 年要长,现在还更长一些,”写道Kokotajlo 在 X 上的一篇文章中。

创建能够进行人工智能研究的人工智能仍然是领先人工智能公司的坚定目标。OpenAI 首席执行官 Sam Altman,去年 10 月,他表示到 2028 年 3 月拥有一名自动化人工智能研究人员是其公司的“内部目标”,但他补充道:“我们可能完全无法实现这一目标。”

布鲁塞尔人工智能政策研究员安德里亚·卡斯塔尼亚 (Andrea Castagna) 表示,AGI 时间表无法解决许多复杂问题。——事实上,你拥有一台专注于军事活动的超级智能计算机,但这并不意味着你可以将其整合到我们过去 20 年编制的战略文件中。

– 我们开发人工智能越多,我们就越发现这个世界不是科幻小说。世界比这复杂得多。”

关于《领先的人工智能专家推迟了其可能毁灭人类的时间表》的评论

暂无评论

发表评论

摘要

前 OpenAI 员工兼人工智能专家 Daniel Kokotajlo 修改了高级人工智能开发的时间表,将预测的完全自主编码年份从 2027 年推迟到 2030 年代初。这一更新反映了一些专家对 AGI(通用人工智能)即将到来的怀疑,他们现在认为人工智能能力及其对社会影响的重大进步需要更长的时间。Kokotajlo 最初的设想“人工智能 2027”引发了争论,但后来经过修改,将超级智能的视野延长至 2034 年,而没有像最初设想的那样预测人类的毁灭。