如果说互联网时代有一种意识形态的话,那就是更多的信息、更多的数据和更多的开放将创造一个更美好、更真实的世界。
如果人类如此聪明,为什么我们如此愚蠢?
听起来不错,不是吗?了解世界从未像现在这样容易,分享知识也从未像现在这样容易。但我认为你不能从现状来看就得出结论说这是真理和智慧的胜利。
我们对此有何看法?为什么更多的信息没有让我们少一些无知,多一些智慧?
尤瓦尔·诺亚·哈拉里 (Yuval Noah Harari) 是一位历史学家,也是一本名为《Nexus:从石器时代到人工智能的信息网络简史》的新书的作者。与所有 Hararis 书籍一样,这本书涵盖了大量内容,但设法以易于理解的方式进行。它提出了两个对我来说很重要的重要论点,我认为它们也让我们更接近回答我刚才提出的一些问题。
第一个论点是,我们世界上每个重要的系统本质上都是信息网络的结果。从货币到宗教,从民族国家到人工智能,这一切之所以有效,是因为有一连串的人、机器和机构在收集和共享信息。
第二个论点是,尽管我们通过建立这些合作网络获得了巨大的权力,但其中大多数的构建方式使它们更有可能产生不良结果,而且由于我们作为一个物种的权力正在增长由于技术的发展,这种情况的潜在后果越来越灾难性。
我邀请了《灰色地带》的赫拉里来探讨其中的一些想法。我们的谈话重点是人工智能,以及为什么他认为我们未来几年在这方面做出的选择将如此重要。
与往常一样,完整的播客中有更多内容,因此请在 Apple 播客、Spotify、Pandora 或任何您能找到播客的地方收听并关注 The Gray Area。每周一都会推出新剧集。
为了长度和清晰度,此对话已被编辑。
您想在这本书中讲述的基本故事是什么?
这本书探讨的基本问题是,如果人类如此聪明,为什么我们如此愚蠢?我们绝对是地球上最聪明的动物。我们可以制造飞机、原子弹和计算机等等。与此同时,我们正处于毁灭我们自己、我们的文明和大部分生态系统的边缘。这似乎是一个巨大的悖论:如果我们对世界、遥远的星系、DNA 和亚原子粒子了解这么多,为什么我们要做这么多自我毁灭的事情呢?你从许多神话和神学中得到的基本答案是,人性有问题,因此我们必须依靠一些外部来源,比如神来拯救我们脱离自身。我认为这是错误的答案,而且是一个危险的答案,因为它会让人们放弃责任。
历史学家和畅销书《智人尤瓦尔·诺亚·哈拉里》(Sapiens Yuval Noah Harari) 的作者并不这么认为。
我认为真正的答案是人性没有任何问题。问题出在我们的信息上。大多数人都是好人。他们不会自我毁灭。但如果你给好人提供错误的信息,他们就会做出错误的决定。我们从历史中看到的是,是的,我们在积累大量信息方面变得越来越好,但信息并没有变得更好。现代社会就像石器时代的部落一样容易出现集体妄想和精神病。
太多人,尤其是在硅谷这样的地方,认为信息就是真相,信息就是真相。如果你积累了很多信息,你就会了解这个世界的很多事情。但大多数信息都是垃圾。信息不是真相。信息的主要作用是连接。将很多人连接到一个社会、宗教、公司或军队的最简单方法不是真理。连接人们最简单的方法是通过幻想、神话和妄想。这就是为什么我们现在拥有历史上最先进的信息技术,但我们却处于毁灭自己的边缘。
书中的恶魔是人工智能,你认为人工智能是有史以来最复杂、最不可预测的信息网络。人工智能塑造的世界将会非常不同,将会产生新的身份、新的存在方式。我们不知道这会产生什么文化甚至精神影响。但正如你所说,人工智能还将释放关于如何组织社会的新想法。我们是否可以开始想象可能的发展方向?
不是真的。因为直到今天,所有人类文化都是由人类思想创造的。我们生活在文化之中。发生在我们身上的一切,我们都是通过神话、意识形态、文物、歌曲、戏剧、电视剧等文化产品的中介来体验的。我们生活在这个文化宇宙中。直到今天,一切,所有的工具,所有的诗歌,所有的电视剧,所有的神话,它们都是有机人类思想的产物。现在它们将越来越多地成为无机人工智能、外星智能的产物。同样,AI 一词传统上代表人工智能,但它实际上应该代表外星智能。外星人,不是指它来自外太空,而是指它与人类思考和决策的方式非常非常不同,因为它不是有机的。
举个具体的例子,人工智能革命的关键时刻之一是 AlphaGo 在围棋锦标赛中击败李世石。现在,围棋是一种大胆的策略游戏,就像国际象棋一样,但要复杂得多,它是在中国古代发明的。在许多地方,它被认为是每个文明人都应该了解的基本艺术之一。如果你是一位中世纪的中国绅士,你会书法,会演奏一些音乐,你会下围棋。整个哲学都是围绕游戏发展起来的,它被视为生活和政治的一面镜子。然后,人工智能程序 AlphaGo 在 2016 年自学了围棋,并击败了人类世界冠军。但最有趣的是它的做法。它采用了一种最初所有专家都认为很糟糕的策略,因为没有人像那样玩。结果证明它很精彩。数以千万计的人玩过这个游戏,现在我们知道他们只探索了围棋领域的一小部分。
所以人类被困在一个岛上,他们认为这就是整个围棋星球。然后人工智能出现了,几周之内它就发现了新大陆。现在,人类下围棋的方式也与 2016 年之前截然不同。现在,你可以说这并不重要,这只是一场游戏。但同样的事情可能会在越来越多的领域发生。如果你思考金融,金融也是一门艺术。我们所知道的整个金融结构都是基于人类的想象力。金融的历史就是人类发明金融设备的历史。货币是一种金融工具,债券、股票、ETF、CDO,所有这些奇怪的东西都是人类聪明才智的产物。现在人工智能出现并开始发明人类从未想过、想象过的新金融设备。
例如,如果金融由于人工智能的这些新创造而变得如此复杂,以至于没有人能够再理解金融,会发生什么?即使在今天,又有多少人真正了解金融体系呢?不到百分之一?10年后,了解金融体系的人数可能会为零,因为金融体系是人工智能的理想游乐场。这是一个纯粹的信息和数学的世界。
人工智能仍然难以应对外部的物理世界。埃隆·马斯克告诉我们,这就是为什么他们每年都会告诉我们,明年路上将有全自动驾驶汽车,但这并没有发生。为什么?因为要驾驶汽车,您需要与现实世界以及纽约混乱的交通世界以及所有建筑和行人等进行互动。金融就容易多了。这只是数字。如果在这个信息领域,人工智能是本地人,我们是外星人,我们是移民,它创造了如此复杂的金融设备和机制,没有人理解它们,会发生什么?
那么当你审视现在的世界并展望未来时,你看到的是这样的吗?社会会陷入这些极其强大但最终无法控制的信息网络之中吗?
是的。但这不是决定性的,也不是不可避免的。我们需要更加仔细和深思熟虑地思考如何设计这些东西。再次强调,它们不是工具,而是代理,因此,如果我们不小心对待它们,它们很可能会脱离我们的控制。这并不是说你拥有一台试图接管世界的超级计算机。学校、工厂、世界各地都有数以百万计的人工智能官僚,他们以我们不理解的方式做出有关我们的决策。
民主在很大程度上是关于问责制的。问责制取决于理解决策的能力。如果当您向银行申请贷款并且银行拒绝您时,您会问,为什么不呢?答案是,我们不知道,算法会检查所有数据并决定不给您贷款,然后我们只要相信我们的算法,这在很大程度上就是民主的终结。你仍然可以进行选举并选择你想要的任何人,但如果人们不再能够理解这些关于他们生活的基本决定,那么就不再有责任。
你说我们仍然可以控制这些事情,但是能控制多久?这个门槛是多少?什么是事件视界?当我们跨越它时我们会知道吗?
没有人确切知道。它的发展速度比我认为几乎任何人预期的都要快。可能是三年,可能是五年,可能是十年。但我认为仅此而已。只要从宇宙的角度思考一下就可以了。我们是人类 40 亿年有机进化的产物。据我们所知,有机进化始于 40 亿年前地球上的这些微小微生物。多细胞生物、爬行动物、哺乳动物、猿类和人类的进化花了数十亿年。数字进化,非有机进化,比有机进化快数百万倍。我们现在正处于一个可能持续数千年甚至数百万年的新进化过程的开始。我们今天所知道的2024年的人工智能,ChatGPT等等,它们只是人工智能进化过程中的变形虫。
您认为民主国家真的能够与这些 21 世纪的信息网络兼容吗?
取决于我们的决定。首先,我们需要认识到信息技术不是一方的东西。一方面不是民主,另一方面不是信息技术。信息技术是民主的基础。民主建立在信息流动之上。
在历史的大部分时间里,由于信息技术的缺失,不可能建立大规模的民主结构。民主基本上是很多人之间的对话,在几千年前的一个小部落或一个小城邦中,你可以得到全部人口或很大一部分人口,比如说古代雅典的人口。城市广场来决定是否与斯巴达开战。进行对话在技术上是可行的。但分布在数千公里之外的数百万人无法互相交谈。他们无法进行实时对话。因此,在前现代世界中没有一个大规模民主的例子。所有示例的规模都非常小。
报纸、电报、广播电视兴起后,大规模民主才成为可能。现在,您可以在广阔的领土上与数百万人进行对话。因此,民主是建立在信息技术之上的。每当信息技术发生重大变化时,建立在其之上的民主就会发生地震。这就是社交媒体算法等目前所经历的情况。这并不意味着民主的终结。问题是,民主会适应吗?
您认为人工智能最终会使权力平衡向民主社会还是极权社会倾斜?
同样,这取决于我们的决定。最坏的情况都不是,因为人类独裁者在人工智能方面也存在很大的问题。在独裁社会,政权不让你讲的事情你就不能讲。但实际上,独裁者对人工智能也有自己的问题,因为它是一个无法控制的代理人。纵观历史,对于人类独裁者来说,最可怕的就是下属变得太强大而你不知道如何控制。例如,如果你看看罗马帝国,就会发现没有一位罗马皇帝被民主革命推翻过。一个也没有。但他们中的许多人被暗杀或废黜,或成为自己下属、有权有势的将军或省长、他们的兄弟、他们的妻子或他们家庭中其他人的傀儡。这是每个独裁者最大的恐惧。独裁者基于恐惧来治理国家。
现在,你如何恐吓人工智能?你如何确保它仍然在你的控制之下,而不是学会控制你?我将给出两个真正困扰独裁者的场景。一种简单,一种复杂得多。在今天的俄罗斯,将乌克兰战争称为战争是犯罪行为。根据俄罗斯法律,俄罗斯入侵乌克兰是一次特殊军事行动。如果你说这是一场战争,你就可以进监狱。现在,俄罗斯人已经通过惨痛的教训学会了不要说这是一场战争,也不要以任何其他方式批评普京政权。但俄罗斯互联网上的聊天机器人会发生什么情况呢?即使该政权审查甚至自己生产了一个人工智能机器人,但人工智能的特点是它可以自我学习和改变。
因此,即使普京的工程师创建了一个政权人工智能,然后它开始与俄罗斯互联网上的人们互动并观察正在发生的事情,它也可以得出自己的结论。如果它开始告诉人们这实际上是一场战争怎么办?你做什么工作?您无法将聊天机器人发送到古拉格。你不能打败它的家人。你的旧式恐怖武器对人工智能不起作用。所以这是一个小问题。
最大的问题是,如果人工智能开始操纵独裁者本人,会发生什么。在民主国家夺取权力非常复杂,因为民主很复杂。假设未来五年或十年,人工智能学会如何操纵美国总统。它仍然需要应对参议院的阻挠。它知道如何操纵总统这一事实并不能帮助它与参议院、州长或最高法院打交道。有很多事情需要处理。但在俄罗斯或朝鲜这样的地方,人工智能只需要学习如何操纵一个极度偏执和不自知的人。这很容易。
您认为民主国家应该采取哪些措施来在人工智能世界中保护自己?
一件事是让公司对其算法的行为负责。不是针对用户的操作,而是针对他们的算法的操作。如果 Facebook 的算法正在传播充满仇恨的阴谋论,Facebook 就应该为此承担责任。如果 Facebook 说,但我们没有创造阴谋论。它是由某个用户创建的,我们不想审查他们,然后我们告诉他们,我们不要求你审查他们。我们只是要求您不要传播它。这并不是什么新鲜事。我不知道,你想想《纽约时报》。我们希望《纽约时报》的编辑在决定将哪些内容放在头版顶部时,确保他们不会传播不可靠的信息。如果有人带着阴谋论来找他们,他们不会告诉那个人,哦,你被审查了。你不可以说这些话。他们说,好吧,但没有足够的证据支持。因此,恕我直言,您可以继续这么说,但我们不会将其放在《纽约时报》的头版上。Facebook 和 Twitter 也应该如此。
他们告诉我们,但我们如何知道某件事是否可靠?好吧,这是你的工作。如果你经营一家媒体公司,你的工作不仅仅是追求用户参与,而是负责任地采取行动,制定机制来区分可靠和不可靠的信息,并且只传播你有充分理由认为可靠的信息。以前已经做过了。你们并不是历史上第一批有责任区分可靠和不可靠信息的人。报纸编辑、科学家、法官以前都做过这样的事,所以你可以学习他们的经验。如果你做不到这一点,那么你就进入了错误的行业。所以这是一件事。让他们对其算法的行为负责。
另一件事是禁止机器人参与对话。人工智能不应该参与人类对话,除非它被识别为人工智能。我们可以将民主想象成一群人围成一圈互相交谈。突然,一群机器人进入了圆圈,开始大声说话,充满激情。而且你不知道谁是机器人,谁是人类。这就是现在世界各地正在发生的事情。这就是谈话崩溃的原因。并且有一个简单的解药。除非机器人被识别为机器人,否则不欢迎它们进入对话圈。比如说,有一个地方,一个房间,供人工智能医生使用,只要它能够识别自己的身份,它就会向我提供有关医学的建议。
类似地,如果你在 Twitter 上看到某个故事被病毒式传播,那么那里的流量很大,你也会产生兴趣。哦,大家都在谈论的这个新故事是什么?大家是谁?如果这个故事实际上是由机器人推动的,那么它就不是人类。他们不应该出现在谈话中。再次决定当天最重要的主题是什么。这对于民主社会、任何人类社会来说都是极其重要的问题。机器人不应该有能力确定哪些故事主导对话。再说一遍,如果科技巨头告诉我们,哦,但这侵犯了言论自由,但事实并非如此,因为机器人没有言论自由。言论自由是一项人权,是人类的权利,而不是机器人的权利。
聆听对话的其余部分,并务必在 Apple 播客、Spotify、Pandora 或任何您收听播客的地方关注灰色区域。