英语轻松读发新版了,欢迎下载、更新

尤瓦尔·诺亚·哈拉里(Yuval Noah Harari):“我们如何与这个新的超级智能分享地球?”

2025-04-01 09:00:00 英文原文

作者:Michiaki Matsushima

以色列历史学家和哲学家尤瓦尔·诺亚·哈拉里(Yuval Noah Harari)的书智人通过人类创造的小说驱动的历史观点,成为了国际畅销书。他后来的工作同性恋然后描绘了通过超级智能的出现带来的人类的未来。他的最新书,Nexus:从石器时代到AI的信息网络的简短历史,是对AI无与伦比的威胁的警告。

由民粹主义和人工智能自11月美国总统大选以来,就已经看到了。关系仅几个月前就出版了,这是AI对AI的潜在后果的及时解释民主和极权主义。在书中,哈拉里不只是发出警报奇异性``尤其是AI,尤其是AI的假设未来,超越了人类的控制,并以其自身的方式不可逆转地进步。

这次采访是由日本有线总编辑Michiaki Matsushima进行的,还记录了“大型采访”YouTube系列对于原定于2025年4月发行的日语版《有线》版,采访已被编辑为清晰和长度。

照片:Shintaro Yoshimatsu

连线:在90年代后期,当互联网开始蔓延时,有一种话语会带来世界和平。人们认为,随着更多信息传达更多的人,每个人都会知道真理,相互理解将是诞生的,人类将变得更加明智。《连线》是数字时代的变化和希望的声音,当时是这种思维的一部分。在您的新书中关系,您写道,这种信息观点太幼稚了。你能解释一下吗?

尤瓦尔·诺亚·哈拉里(Yuval Noah Harari):信息与真理不同。大多数信息不是现实的准确表示。信息信息扮演的主要角色是将许多事物联系起来,与人联系。有时人们通过真理有联系,但通常使用小说或幻觉更容易。

自然世界也是如此。自然界中存在的大多数信息并不意味着说实话。有人告诉我们,生命的基本信息是DNA,但是DNA是真的吗?否。DNA将许多细胞连接在一起以使身体结合在一起,但它并没有告诉我们任何事物的真相。同样,圣经是人类历史上最重要的文本之一,已经将数百万人联系在一起,但不一定是通过告诉他们真相。

当信息进入完整的自由市场时,绝大多数信息就会成为虚构,幻想或谎言。这是因为真理有三个主要困难。

首先,说实话是昂贵的。另一方面,创作小说很便宜。如果您想对历史,经济学,物理学等撰写真实的描述,则需要花费时间,精力和金钱来收集证据和事实检查。但是,使用小说,您可以简单地写下任何想要的东西。

其次,真理通常很复杂,因为现实本身很复杂。另一方面,小说可以像您想要的那样简单。

最后,真理常常是痛苦和不愉快的。另一方面,可以使小说变得尽可能愉快和吸引人。

因此,在一个完全免费的信息市场中,真理将被虚构和幻觉的巨大范围所掩盖和掩埋。如果我们想实现真相,我们必须做出特别的努力,以反复尝试揭示事实。这正是互联网传播所发生的事情。互联网是一个完全自由的信息市场。因此,人们对互联网将传播事实和真理,并在人们之间传播理解和共识的期望很快被证明是天真的。

尤瓦尔·诺亚·哈拉里(Yuval Noah Harari)是剑桥大学研究中心生存风险中心的研究员。

照片:Shintaro Yoshimatsu

比尔·盖茨(Bill Gates)在最近接受《纽约客》(New Yorker)的采访时说:“我一直认为数字技术使人们有能力,但是社交网络是完全不同的。我们很慢,意识到这一点。AI也完全不同。如果AI是前所未有的,我们可以从过去中学到什么?

我们可以从历史中学到很多东西。首先,了解历史可以帮助我们了解AI带来的新事物。在不了解历史的情况下,我们无法正确理解当前情况的新颖性。关于AI的最重要的观点是它是代理,而不仅仅是工具。

有些人经常将AI革命与印刷革命,书面词的发明或广播和电视等大众媒体的出现等同于此,但这是一种误解。所有以前的信息技术都是人类手中的工具。即使发明了印刷机,仍然是人类写了文字,并决定要打印哪些书。印刷机本身无法写任何东西,也不能选择要打印的书。

但是,AI从根本上有所不同:它是代理人;它可以编写自己的书,并决定要传播哪些想法。它甚至可以自己创建全新的想法,这在历史上从未做过。我们的人类以前从未面对过超级智商。

当然,过去有演员。动物就是一个例子。但是,人类比动物更聪明,尤其是在连接领域,在这些领域中,它们绝大多数优越。实际上,最大的优势智人不是其个人能力。在个人层面上,我不比黑猩猩,大象或狮子强。如果一小群人说有10人和10只黑猩猩要战斗,那么黑猩猩可能会赢。

照片:Shintaro Yoshimatsu

那么,为什么人类主导地球呢?这是因为人类可以建立数千,数百万甚至数十亿个人彼此认识但可以大规模合作的网络。十只黑猩猩可以彼此紧密合作,但是1,000只黑猩猩不能。另一方面,人类可以与1,000个人合作,而是与一百万甚至1亿人合作。

人类之所以能够在如此大的规模上合作的原因是因为我们可以创建和分享故事。所有大规模合作都是基于一个共同的故事。宗教是最明显的例子,但是财务和经济故事也是一个很好的例子。金钱也许是历史上最成功的故事。钱只是一个故事。账单和硬币本身没有客观的价值,但是我们相信有关与我们联系并允许我们合作的金钱的同一个故事。这种能力使人类比黑猩猩,马和大象具有优势。这些动物不能创造一个像金钱这样的故事。

但是AI可以。历史上,我们第一次与可以比我们更好地创建和网络故事的生物共享地球。当今人类面临的最大问题是:我们如何与这个新的超级智能分享地球?

照片:Shintaro Yoshimatsu

我们应该如何看待这个新时代的超级智能时代?

我认为对AI革命的基本态度是避免极端。范围的一端是担心AI会出现并摧毁我们所有人,另一方面是对AI将改善医疗保健,改善教育并创造更美好世界的乐观。

我们需要的是一条中间路。首先,我们需要了解这种变化的规模。与我们现在面临的AI革命相比,与之相比,历史上所有以前的所有革命都将变得苍白。这是因为在整个历史上,当人类发明某种东西时,总是是他们做出有关如何使用它来创建一个新社会,新经济体系或新政治体系的决定。

照片:Shintaro Yoshimatsu

例如,考虑19世纪的工业革命。当时,人们发明了蒸汽机,铁路和轮船。尽管这场革命改变了经济,军事能力和地缘政治状况的生产能力,并带来了全世界的重大变化,但最终决定如何建立工业社会。

作为一个具体的例子,在1850年代,美国准将马修·C·佩里(Matthew C. Perry)乘坐轮船来到日本,迫使日本接受美国贸易条款。结果,日本决定:让我们像美国一样工业化。当时,关于是否工业化的日本在日本进行了一场巨大的辩论,但辩论仅在人之间。蒸汽机本身没有做出任何决定。

但是,这一次,在建立一个基于人工智能的新社会时,人类并不是唯一做出决定的人。AI本身可能有权提出新的想法并做出决定。

如果AI有自己的钱,就如何花费它做出决定,甚至开始将其投资于股市怎么办?在这种情况下,要了解金融体系中发生的事情,我们不仅需要了解人类在想什么,而且还需要了解AI的想法。此外,AI有可能产生对我们完全无法理解的思想。

照片:Shintaro Yoshimatsu

我想澄清您对奇异性的看法,因为我经常看到您所说的是反对性的。但是,在您的新书中,您指出,AI比人类更具创造力,并且在情商方面它也比人类优越。

您的陈述让我特别震惊,所有这些革命的根源都是计算机本身,其中互联网和AI只是衍生品。有线刚刚出版了量子计算机系列,以此为例:如果我们将来我们将获得计算能力的量子飞跃,您是否认为奇异性是通过超智能重新排序世界秩序的重新排序,是不可避免的吗?

这取决于您如何定义奇异性。据我了解,奇点是我们不再了解那里发生的事情的意义。这是我们的想象力和理解无法跟上的点。而且我们可能非常接近那一点。

即使没有量子计算机或成熟的人工通用智能,也可以与人类的能力竞争今天存在的AI水平可能足以引起它。人们经常以一个巨大的AI来思考AI革命并创造新的发明和变化,但我们应该宁愿考虑网络。如果将数百万或数千万的高级AIS联网以实现经济,军事,文化和政治的重大变化,将会发生什么?该网络将创建一个完全不同的世界,我们将永远无法理解。对我来说,奇异性正是我们理解世界甚至我们自己生活的能力的点。

如果您问我是为了或反对奇异性,首先,我会说我只是想清楚地了解现在发生的事情。人们经常想立即将事情判断为好是坏,但要做的第一件事就是仔细研究一下情况。回顾过去30年,技术做了一些非常好的事情和一些非常糟糕的事情。这并不是一个明确的好事,或者只是坏事。将来可能会一样。

但是,未来的一个明显区别是,当我们不再了解世界时,我们将不再控制我们的未来。然后,我们将与动物处于相同的位置。我们将就像不了解世界上发生的事情的马或大象。马匹和大象无法理解人类的政治和金融体系控制着他们的命运。我们人类可能会发生同样的事情。

照片:Shintaro Yoshimatsu

您说,每个人都在谈论“后真相”,但是历史上有一个真相吗?您能解释一下这是什么意思吗?

我们曾经更好地理解世界,因为是人类管理了世界,这是人类的网络。当然,总是很难理解整个网络的运作方式,但是至少作为一个人,我可以理解国王,皇帝和大祭司。他们是像我一样的人类。当国王做出决定时,我可以在某种程度上理解它,因为信息网络的所有成员都是人类。但是,既然AI已成为信息网络的主要成员,那么了解塑造我们世界的重要决策变得越来越困难。

也许最重要的例子是财务。在整个历史上,人类发明了越来越复杂的财务机制。金钱就是一个这样的例子,就像股票和债券一样。兴趣是另一项财务发明。但是,发明这些财务机制的目的是什么?它与发明车轮或汽车不同,也不像开发可以食用的新米饭一样。

因此,发明金融的目的是在人之间建立信任和联系。金钱使您和我之间的合作。你种大米,我付钱给你。然后你给我米饭,我可以吃。即使我们个人不认识,我们俩都信任金钱。好钱建立人与人之间的信任。

财务建立了一个信任与合作网络,该网络将数百万人联系起来。到目前为止,人类仍然有可能了解这个财务网络。这是因为所有财务机制都需要人性理解。发明人类无法理解的财务机制是没有意义的,因为它无法建立信任。

但是,AI可能发明了完全新的财务机制,这些机制远比利益,债券或股票更为复杂。它们在数学上将非常复杂,并且对于人类来说是无法理解的。另一方面,AI本身可以理解它们。结果将是一个财务网络,AIS相互信任并相互交流,人类将不了解正在发生的事情。目前,我们将失去对金融体系的控制权,以及所有取决于它的一切。

照片:Shintaro Yoshimatsu

因此,AI可以建立我们可以理解的信任网络。这种难以理解的事物被称为“超对象”。例如,全球气候变化是人类无法完全掌握机制或全部图景的东西,但我们知道它将产生巨大的影响,因此我们必须面对并适应它。人工智能是本世纪人类必须处理的另一个体重。在您的书中,您将人类的灵活性视为应对大挑战所需的事情之一。但是,应对人类实际上是什么意思?

理想情况下,我们相信AI可以帮助我们处理这些非常复杂的过度对象,以至于它们超出了我们的理解。但是,也许AI发展的最大问题是:我们如何制作AI,它比人类更聪明,值得信赖?我们没有这个问题的答案。

我相信AI革命中最大的悖论是Trust的悖论,即我们现在急于发展我们不完全信任的超智能AI。我们知道有很多风险。从理性上讲,降低发展步伐,对安全性进行更多的投资并创建安全机制是明智的,以确保超级智能AIS不会逃脱我们的控制或以对人类有害的方式行事。

但是,今天实际上发生了相反的情况。我们正处于加速AI比赛中。各种各样的公司和国家都以惊人的速度竞争,以开发更强大的AIS。同时,几乎没有投资以确保AI安全。

询问领导这项AI革命的企业家,商人和政府领导人,为什么要匆忙?几乎所有人都回答:我们肯定知道这是有风险的。我们知道这很危险。我们了解到,慢慢投资于安全是明智的。但是我们不能相信我们的人类竞争对手。如果其他公司和国家在我们试图放慢速度并使其更安全的同时加速他们的AI发展,他们将首先发展超智慧并统治世界。因此,我们别无选择,只能尽快前进,以保持不可靠的竞争。

照片:Shintaro Yoshimatsu

但是后来我问那些负责AI的人是第二个问题:您认为我们可以相信您正在开发的超级智能?他们的答案是:是的。这几乎是疯了。甚至不信任其他人类的人以某种方式认为他们可以信任这个外星人AI。

我们有数千年的人类经验。我们了解人类的心理学和政治。我们了解人类对权力的渴望,但我们也对如何限制这种权力并建立人类的信任有所了解。实际上,在过去的几千年中,人类已经建立了很多信任。100,000年前,人类生活在数十个人的小组中,无法相信局外人。但是,如今,我们拥有庞大的国家,贸易网络在世界各地延伸,甚至数亿甚至数十亿人在某种程度上相互信任的人。

我们知道AI是一个行动者,它做出自己的决定,创造新的想法,设定新的目标,创造人类不理解的技巧和谎言,并可能超出我们的理解之外的外星目标。我们有很多理由怀疑AI。我们没有AI的经验,也不知道如何信任它。

我认为人们认为当他们不信任彼此时可以信任AI是一个巨大的错误。发展超智能的最安全方法是首先加强人类之间的信任,然后彼此合作以安全的方式发展超智慧。但是我们现在正在做的恰恰相反。取而代之的是,所有的努力都是致力于发展超级智能。

一些具有自由主义者心态的有线读者可能比对人类更有信心,因为人类在我们的大多数历史上都在互相战斗。您说我们现在拥有庞大的信任网络,例如国家和大型公司,但是我们在建立此类网络方面有多成功,它们会继续失败吗?

这取决于我们的期望标准。如果我们回顾并将今天的人类与100,000年前的人进行比较,当我们是居住在几十个人群中的狩猎采集者时,我们就建立了一个惊人的大型信任网络。我们有一个系统,其中数亿人每天相互合作。

自由主义者经常将这些机制视为理所当然,并拒绝考虑它们的来源。例如,您的家中有电和饮用水。当您去洗手间并冲洗水时,污水会进入一个巨大的污水系统。该系统是由国家创建和维护的。但是,在自由主义者的心态中,您很容易理所当然地认为您只使用厕所并冲洗水,没有人需要维护它。但是当然,有人需要。

确实没有一个完美的自由市场。除了竞争外,总会有某种信任体系。某些事情可以通过自由市场的竞争成功创造,但是,仅市场竞争就无法维持一些服务和必需品。正义就是一个例子。

想象一个完美的自由市场。假设我与您签订了商业合同,然后违反了该合同。因此,我们去法院要求法官做出决定。但是,如果我贿赂法官怎么办?突然,您可以信任自由市场。您不会容忍法官承担支付最多贿赂的人的一边。如果要在一个完全自由的市场上交易正义,正义本身将崩溃,人们将不再互相信任。兑现合同和承诺的信托将消失,并且没有系统来执行它们。

因此,任何竞争总是需要一些信任结构。在我的书中,我以世界足球杯的榜样。您有来自不同国家的团队相互竞争,但是为了进行竞争,必须首先就一套共同的规则达成协议。如果日本有自己的规则,而德国还有另一套规则,那将没有竞争。换句话说,即使竞争也需要共同的信任和协议的基础。否则,订单本身将崩溃。

照片:Shintaro Yoshimatsu

关系,您注意到大众媒体使大众民主成为可能。换句话说,信息技术和民主制度的发展是相关的。如果是这样,除了民粹主义和极权主义的负面可能性之外,民主国家的积极变革的机会是什么?

例如,在社交媒体中,有意散布虚假新闻,虚假信息和阴谋论,以破坏人们之间的信任。但是,算法不一定是虚假新闻和阴谋论的传播者。许多人之所以实现这一目标,仅仅是因为他们被设计为这样做。

Facebook,YouTube和Tiktok的算法的目的是最大化用户参与度。在经过大量反复试验之后发现的最简单的方法是传播人们的愤怒,仇恨和欲望。这是因为当人们生气时,他们更倾向于追求信息并将其传播给他人,从而增加了参与度。

但是,如果我们给出算法的目的不同,该怎么办?例如,如果您给它一个目的,例如增加人们之间的信任或越来越真实,那么该算法将永远不会传播假新闻。相反,它将有助于建立一个更好的社会,一个更好的民主社会。

另一个重要的一点是,民主应该是人类之间的对话。为了进行对话,您需要知道并相信自己正在与人打交道。但是,借助社交媒体和互联网,越来越难以知道您正在阅读的信息是否真的是由人类还是由人类写成和传播的。这破坏了人类之间的信任,并使民主非常困难。

为了解决这个问题,我们可以制定禁止机器人和AI假装是人类的法规和法律。我认为根本不应该禁止AI本身。欢迎AI和机器人与我们互动,但前提是他们明确表明他们是AI而不是人类。当我们在Twitter上看到信息时,我们需要知道它是由人类还是机器人传播的。

有人可能会说,不是违反言论自由的行为吗?但是机器人没有言论自由。尽管我坚定地反对对人类表达的审查制度,但这并不能保护机器人的表达。

照片:Shintaro Yoshimatsu

我们会通过在不久的将来与人工智能讨论主题,变得更聪明或得出更好的结论吗?我们是否会看到人类甚至可以想象的那种创造力,例如Alphago的情况,例如,您在新书中也在课堂讨论中描述了这种创造力?

当然可以发生。一方面,AI可以非常有创造力,并提出了我们永远不会想到的想法。但与此同时,AI还可以通过向我们喂食大量垃圾和误导性信息来操纵我们。

关键是我们人类是社会上的利益相关者。正如我前面提到的污水系统示例一样,我们有一个身体。如果污水系统崩溃,我们会生病,传播痢疾和霍乱等疾病,在最坏的情况下,我们死了。但这根本不是对AI的威胁,而AI不在乎污水系统是否崩溃,因为它不会生病或死亡。例如,当人类公民辩论是否将资金分配给政府机构管理污水系统时,显而易见的既得利益。因此,尽管AI可以提出一些非常新颖的污水系统想法,但我们必须始终记住,AI不是人类,甚至不是有机的。

很容易忘记我们有身体,尤其是在讨论网络空间时。使人工智能与人类不同的原因不仅是它的想象力和思维方式,它们是陌生的,而且它的身体本身与我们的身体完全不同。最终,人工智学也是一个身体上的存在。它不存在于某些纯粹的心理空间中,而是在计算机和服务器网络中。

照片:Shintaro Yoshimatsu

考虑未来时要考虑的最重要的事情是什么?

我认为有两个重要问题。一个是信任的问题,至今一直是许多讨论的主题。现在,我们处于人类之间受到信任的危险中。这是最大的危险。如果我们能够加强人类之间的信任,我们将能够更好地应对AI革命。

第二个是被AI完全操纵或误导的威胁。在互联网早期,技术的主要隐喻是网络。万维网被设想为像蜘蛛网一样的网络,将人们彼此联系在一起。

然而,今天,主要的隐喻是茧。人们越来越多地生活在各个信息中。人们被轰炸了很多信息,以至于他们对周围的现实视而不见。人们被困在不同的信息茧中。历史上第一次,非人类实体,一个人工智能,能够创建这样的信息。

在整个历史中,人们都生活在人类的文化茧中。诗歌,传奇,神话,戏剧,建筑,工具,美食,意识形态,金钱以及塑造我们世界的所有其他文化产品都来自人类的思想。但是,将来,许多这些文化产品将来自非人类的情报。我们的诗,视频,意识形态和金钱将来自非人类情报。我们可能被困在这样的外星世界中,与现实失去联系。这是一种恐惧,人们已经在他们的心中深深地持续了数千年。现在,这种恐惧比以往任何时候都变得真实和危险。

例如,佛教谈论了玛雅的幻觉,幻觉的概念。随着人工智能的出现,从这个幻想世界中逃脱比以前更加困难。AI能够充满新的幻想,甚至没有源于人类智力或想象力的幻觉。我们会发现甚至很难理解幻想。

照片:Shintaro Yoshimatsu

您提到自我校正机制是维持民主的重要功能。我认为这也是摆脱茧并与现实接触的重要功能。另一方面,在您的书中,您写道,自工业革命以来,人类的表现应被评为c减,或者几乎是可以接受的。如果是这样,那么在即将到来的AI革命中,我们肯定不会从人类中得到太多的期望吗?

当出现新技术时,它本身并不一定是糟糕的,但是人们尚不知道如何有益地使用它。他们之所以不知道我们没有模型。

当工业革命发生在19世纪时,没有人对如何建立一个好的工业社会或如何使用蒸汽机,铁路和电报等技术来造福人类。因此,人们以各种方式进行了试验。这些实验中的一些,例如现代帝国主义和极权国家的创造,都具有灾难性的结果。

这并不是说AI本身是坏或有害的。真正的问题是,我们没有建立AI社会的历史模型。因此,我们将不得不重复实验。此外,AI本身将做出自己的决定并进行自己的实验。其中一些实验可能会带来可怕的结果。

这就是为什么我们需要一种自我校正机制,一种机制可以在致命发生事件发生之前检测和纠正错误的机制。但这不是在向世界引入AI技术之前在实验室中测试的东西。在实验室中模拟历史是不可能的。

例如,让我们考虑发明的铁路。

在实验室中,人们能够看到由于故障而蒸汽发动机是否会爆炸。但是,当铁路网络散布在数万公里以上时,没有人能模拟他们将对经济和政治局势带来的变化。

AI也是如此。无论我们在实验室中尝试AI多少次,都无法预测数以百万计的超级智能在现实世界中释放出来并开始改变经济,政治和社会景观时会发生什么。几乎可以肯定的是,会有重大错误。这就是为什么我们应该更加谨慎,更慢的过程。我们必须让自己有时间适应,时间发现和纠正我们的错误。

这个故事最初出现在 日本有线并已从日语翻译。

关于《尤瓦尔·诺亚·哈拉里(Yuval Noah Harari):“我们如何与这个新的超级智能分享地球?”》的评论


暂无评论

发表评论

摘要

Keio大学教授JürgenHabermas的采访的关键点可以总结如下:1。**人类之间的信任**:人类之间的信任对于应对人工智能(AI)带来的挑战至关重要。加强这种信任至关重要,以更好地应对技术进步所带来的变化。2。**信息的茧**:人们越来越担心人们被困在人工智能创建和操纵的个性化信息中,这可能导致对现实的扭曲感。3。**自我校正机制**:哈贝马斯强调了建立适当的机制来检测和纠正错误的重要性,因为将像AI这样的新技术引入了社会。这尤其重要,因为仅仅通过实验室实验来预测所有潜在的负面结果。4。**历史先例**:工业革命是一个历史参考点,说明尽管技术本身并不是固有的不好,但人类需要时间和经验来学习如何利用它。当人们不了解蒸汽机,铁路和电报等新技术的全部含义时,就会出现灾难性的结果。5。**谨慎和慢进度**:鉴于AI对经济,政治和社会景观的潜在影响的前所未有的性质,Habermas建议谨慎地继续进行适应和错误纠正的时间,然后再进行广泛部署。6。**外星人情报**:文化产品(诗歌,视频,意识形态)可能越来越源于非人类智能的想法提出了人们对人类如何在AI-DERADER世界中保持与现实的联系的深刻问题。7。**对人类绩效的评分**:哈贝马斯提到自工业革命以来的人类表现为“ C减”或几乎无法接受。这凸显了缺乏使用AI等先进技术建立有效社会的历史模型,需要仔细实验并从错误中学习。这些见解强调了对将AI融入社会的周到,谨慎的方法的需求,同时对其对信任,现实感知和社会结构的影响进行批判性思考。