英语轻松读发新版了,欢迎下载、更新

坚持AI会杀死我们所有人的厄运者

2025-09-05 15:08:00 英文原文

作者:Steven Levy

字幕的字幕 厄运圣经由AI灭绝出版的预示着Eliezer Yudkowsky和本月的SOARES是为什么Superhuman AI会杀死我们所有人的原因。但是,这确实应该是为什么Superhuman AI会杀死我们所有人的原因,因为即使世界也不相信世界也不会以所有非属于人类的人来阻止AI的必要措施来阻止AI的必要措施。这本书是黑暗的,像黎明处决前一天晚上在昏暗的监狱牢房中乱读的笔记一样。当我遇到这些自我任命的木薯时,我会直接问他们是否相信他们个人会通过超级智能的一定程度地实现自己的目的。答案迅速出现:是的。

我并不感到惊讶,因为我读了这本书,顺便说一句如果有人建造它,每个人都死了尽管如此,听到这一点还是令人震惊的。例如,关于癌症统计数据的文章是一回事,而另一件事是谈论与致命诊断有关的事情。我问他们他们认为结局会如何。Yudkowsky首先躲开了答案。他说:`我不会花很多时间来描绘我的灭亡,因为这似乎不是解决这个问题的有用的心理观念。”在压力下,他忍受了。他说,我猜突然摔倒了。•如果您想要一个更容易获得的版本,关于蚊子的大小,或者可能是尘土飞扬的螨虫降落在我脖子的后部。

AI驱动的尘螨造成的他想象中的致命打击的技术性是遥不可及的,而Yudowsky认为,不值得弄清楚这是如何工作的。无论如何,他可能都无法理解。这本书的一部分论点是,超级智能将提出科学的东西,我们可以比人们想象的微处理器能够理解的更多。合着者Soares还说,他想象他会发生同样的事情,但他补充说,像Yudkowsky一样,他并没有花很多时间来呆在他的灭亡的细节上。

我们没有机会

不愿意可视化他们个人灭亡的环境是一件奇怪的事情,从刚刚合着整本书的人那里听到大家灭亡。对于末日爱好者,如果有人建造它是约会阅读。经过这本书的融化后,我确实理解了钉住AI结束我们的生命以及此后所有人类生活的方法的模糊性。作者确实推测了一点。沸腾海洋?遮住太阳?所有猜测可能都是错误的,因为我们锁定在2025年的心态中,而人工智能将在前方思考。

尤德科夫斯基(Yudkowsky)是最著名的叛教者,几年前从研究人员转变为Grim收割者。他甚至做到了TED谈话。经过多年的公开辩论,他和他的合着者为针对他们的可怕预言发起的每个反驳都有一个答案。对于初学者来说,我们的日子被LLM编号似乎是违反直觉的,LLM通常会在简单的算术上偶然发现。作者说,不要愚弄。他们写道不会永远保持愚蠢。他们说,如果您认为超级智能AIS会尊重人类的界限,那么就忘记了。一旦模型开始自学以变得更聪明,AIS就会自行发展偏好,这与我们人类希望他们更喜欢的东西保持一致。最终,他们不需要我们。他们不会对我们作为对话伙伴甚至宠物感兴趣。我们是一个令人讨厌的人,他们将着手消除我们。

这场战斗将是公平的。他们认为,起初,AI可能需要人类援助来建立自己的工厂和实验室,通过偷钱和贿赂人们来帮助它,可以轻松地完成。然后,它将建立我们可以理解的东西,这些东西将结束我们。写这些作者,一种或另一种方式,世界淡化了黑人。

作者认为这本书是一种令人震惊的待遇,可以使人类自满,并采取阻止这一难以想象的不良结论所需的巨大措施。我希望从中死亡,” Soares说。但是,直到您实际死了,这场斗争才结束。太糟糕了,那么,他们建议阻止破坏的解决方案似乎比软件会谋杀我们所有人的想法更加牵强。这一切都归结为:踩刹车。监视数据中心,以确保他们不培养超智慧。炸弹那些不遵守规则的人。停止发表论文,并以加速行进的思想到超级智能。我问他们,他们会禁止吗2017年变压器论文这开始了生成的AI运动。哦,是的,他们会回应。他们想要Ciao-GPT,而不是Chat-GPT。祝你好运,阻止这个万亿美元的行业。

玩赔率

就个人而言,我看不到自己的灯在脖子上被一些超级进取的尘埃刺痛而刺痛。即使阅读了这本书,我也不认为AI可能会杀死我们所有人。Yudksowky以前涉足哈利·波特粉丝小说,他旋转的幻想灭绝场景太奇怪了,对于我微不足道的人类大脑无法接受。我的猜测是,即使超级智能确实想摆脱我们,它也会偶然制定其种族灭绝计划。AI可能能够在战斗中鞭打人类,但我会在与墨菲法律的战斗中押注。

尽管如此,灾难理论似乎并没有不可能的,尤其是因为没有人真正为智能AI的变化设定了上限。研究还表明,高级人工智能已经获得了许多人类的讨厌属性,甚至考虑勒索在一个实验中避免重新训练。同样令人不安的是,一些花生的研究人员在建立和改善人工智能认为最糟糕的可能发生的可能性是不足的。一项调查指出几乎一半的人工智能科学家对物种消灭的几率固定为10%或更高的机会。如果他们相信这一点,那么他们每天都在工作以使Agi实现这一点,这真是太疯狂了。

我的直觉告诉我Yudkowsky的场景和Soares Spin太奇怪了,无法真实。但是我可以当然他们错了。每个作者都梦想着他们的书是一本持久的经典。这两个不是那么多。如果他们是对的,将来将没有人读书。只有很多分解的身体曾经在脖子的后部有轻微的nip,其余的都是沉默。

关于《坚持AI会杀死我们所有人的厄运者》的评论


暂无评论

发表评论

摘要

Eliezer Yudkowsky和Nate Soares即将出版的书“如果有人建造它,每个人都死了”,警告说,由于人类无法理解或控制,这将不可避免地导致人类灭绝的生存威胁,认为这将不可避免地导致人类的灭绝。尽管他们做出了可怕的预测,但作者承认,他们个人相信这样的结果,但在设想其确切性质方面挣扎。该书提出了巨大的措施,以防止AI达到超级智能水平,但除了停止研究和破坏数据中心之外,没有提供实际解决方案。批评家对这些极端方法仍然怀疑,同时承认某些AI研究人员本身害怕灾难性的未来的可能性令人不安。