我们很搞砸:AI 2027的评论

2025-09-27 15:09:30 英文原文

作者:Peter Burns

耶鲁每日新闻

人工智能吓到我,因为它做了很多人。自2022年11月的Chatgpt发行以来的三年中,AI已经并且将继续彻底改变我们的世界。随着每一个报纸的标题,我们都会提出的问题要多于获得答案。我们应该庆祝这种技术提出的可能性,还是应该害怕它的力量?

这将我们带到了AI 2027,这是一个宣言式的网页,并带有其自己的域名,图形和数据,这使读者经过10年的时间表,即AI将如何影响世界。预测时间表由AI期货项目,特别是Daniel Kokotajlo,Scott Alexander,Thomas Larsen,Eli Lifland和Romeo Dean撰写。AI Futures Project是一个AI研究人员和学者的团队,其中一些人在过去一年中从Openai跳了船,对不断发展的技术发出了警钟的声音。当您向网页中的故事情节移动时,屏幕更新左上角的图表显示了哪些新技术正在出现,但它的新功能是什么。 

您滚动的未来越远,结果就越令人痛苦。在2026年初,他们预测大多数人会认识一个人AI男朋友。到2027年底,我们将拥有一般的情报,可以在大多数经济上有用的工作中胜过人类。 

AI在主要城市中释放了十二种安静的生物武器,使它们几乎默默地感染了所有人,然后用化学喷雾剂触发它们。大多数人在几个小时内死亡;少数幸存者(例如,在掩体中的准备工作,潜艇上的水手)被无人机擦拭。机器人扫描受害者的大脑,将副本放在记忆中以进行未来的研究或复兴。

这种情况可能不到十年。不过,请记住:正如作者所写,这是一种强调A. A. AI 2027的情况。但是,我承认,它冲出了一个故事,很难称呼令人难以置信。美国和中国将参加人工智能军备竞赛是非常合理的,台湾的芯片制造业陷入了中间。某些工作将开始从市场上脱落,因为AI可以以指数级的效率来做到这一点。尤其是编码人员,投资者和研究人员将努力寻找工作,因为新兴的超级智能表明自己很快就变得更好了。” 

这肯定是合理的,即使不是迫在眉睫。AI 2027不会迫使其读者暂停他们的许多难题,这使它变得更加令人着迷。” 

由于缺乏更好的术语,AI 2027是一个艰苦的科幻故事,在数据和交互式视觉效果中掩盖了自己。艰苦的科幻很贴在现代对科学和技术的理解附近,并没有偏离我们所知道的可能。同样,这篇文章不是一个学术论文,而是如此,而是一个呼吁行动。它提醒我们,如果我们忽略AI的可能危险,即使是由于AI设计的生物武器,我们也会陷入困境。

我想到人类将其在地球上的作用放在机器上。看看我们所建立的东西:政府,哲学,现代科学,艺术,文化,您可以命名。人类没有经历数千代和文明周期,而只是将其留在计算机屏幕上。 

当我考虑到AI 2027中概述的未来时,我不禁要问我在街上经过的人们是否为人类创造的东西感到自豪。他们认为其他任何物种都可以实现我们社会的创造吗?他们是否欣赏那些在我们面前的人的话和行为?有人可能认为将人类思想的力量放在机器上的力量可能是个好主意?

当然,为了作为一个物种发展,我们必须将目光侧重于未来,这是有价值的。但这并不意味着我们永远不应该回头。” 

我在街上经过的那个人都有人类历史产物的思想,习惯和信念。在文化和进化上,人类的自我编辑并根据数千年的反馈来修改自己。从头开始忽略了祖先的好处。 

这就是说,不考虑过去发生的事情是不明智的。我们不能放弃将我们带到今天所在的位置。它以前起作用。它将再次起作用。

也许是因为我太浪漫了,也许是因为我拒绝在基本的计算机科学课程中腾出空间,所以我发现我们在形象中创造人造思想之前,我们不会向内看自己的人类,这很奇怪。我们是否觉得我们需要通过创建完美的思维机器来完善自己?我们是否为我们的非理性和天生的不确定性感到羞耻,以至于我们需要将决策外包给对零和零的合并? 

也许我们可以从AI中学到一些东西。近几个月来,人们对AI Slop的可能性越来越担心:AI生成的内容基于其他AI生成的内容并馈送。对于机器人来说,生产自己的培训数据的周期产生了极低的输出。但是,当人类做同样的事情时,我们可以将自己的经验,产出和历史内部化 - 我们不禁要成长。” 

根据AI 2027年,两年后,人工智能将自己训练。多么疯狂的想法。疯狂的是,人类一直在这样做。

彼得·伯恩斯

关于《我们很搞砸:AI 2027的评论》的评论


暂无评论

发表评论

摘要

AI Futures项目的宣言式网页“ AI 2027”概述了十年的时间表,预测了由于推进AI技术而引起的急剧变化。作者丹尼尔·科科塔(Daniel Kokotajlo),斯科特·亚历山大(Scott Alexander),托马斯·拉尔森(Thomas Larsen),埃利·利兰德(Eli Lifland)和罗密欧·迪恩(Romeo Dean)的现场场景从2026年初的“ AI男友”的常识到超级智能机器到超级智能机器,从而通过生物武器到2030年中期在2030年中引起人类灭绝。该文件虽然推测,但强调了合理的风险,例如工作流离失所和对AI发展的地缘政治紧张局势。该文章是行动的呼吁,强调了在技术上推进历史背景的重要性。