意见 |尤瓦尔·赫拉利:A.I.威胁民主 - 纽约时报中文网

2024-09-04 09:03:19 英文原文

<正文>

支持者

客座文章

尤瓦尔·诺亚·赫拉利:当机器人争夺你的爱时会发生什么?

先生。Harari 是一位历史学家,也是即将出版的《Nexus:从石器时代到人工智能的信息网络简史》一书的作者,本文改编自该书。

民主是一种对话。它的功能和生存取决于可用的信息技术。在历史的大部分时间里,都不存在能够在数百万人之间进行大规模对话的技术。在前现代世界,民主只存在于像罗马和雅典这样的小城邦,甚至更小的部落。一旦政体变得庞大,民主对话就会崩溃,威权主义仍然是唯一的选择。

只有在报纸、电报和广播等现代信息技术兴起后,大规模民主才变得可行。现代民主建立在现代信息技术之上,这一事实意味着基础技术的任何重大变化都可能导致政治动荡。

这在一定程度上解释了当前全球范围内的民主危机。在美国,民主党和共和党甚至在最基本的事实上也很难达成一致,比如谁赢得了2020年总统选举。从巴西到以色列,从法国到菲律宾,世界各地许多其他民主国家也发生了类似的崩溃。

在互联网和社交媒体的早期,科技爱好者承诺他们将传播真理、推翻暴君并确保自由的普遍胜利。到目前为止,它们似乎产生了相反的效果。我们现在拥有历史上最先进的信息技术,但我们正在失去相互交谈的能力,更失去了倾听的能力。

广告

由于技术使信息传播变得比以往任何时候都容易,注意力成为稀缺资源,随后的注意力争夺战导致了有毒信息的泛滥。但现在战线正从关注转向亲密。新的生成人工智能不仅能够生成文本、图像和视频,还能直接与我们对话,假装成人类。

在过去的二十年里,算法与算法竞争,通过操纵对话和内容来吸引注意力。特别是,通过对数百万人类豚鼠进行实验发现,负责最大化用户参与度的算法发现,如果你按下大脑中的贪婪、仇恨或恐惧按钮,你就会吸引那个人的注意力,并让那个人粘在屏幕上。算法开始刻意推广此类内容。但算法本身生成这些内容或直接进行亲密对话的能力有限。随着 OpenAI GPT-4 等生成式人工智能的引入,这种情况正在发生改变。

OpenAI 在 2022 年和 2023 年开发这款聊天机器人时,该公司与 Alignment 研究中心合作进行了各种实验,以评估其新技术的能力。它给 GPT-4 的一项测试是克服 CAPTCHA 视觉难题。CAPTCHA 是完全自动化公共图灵测试的首字母缩写,用于区分计算机和人类,它通常由一串扭曲的字母或其他视觉符号组成,人类可以正确识别,但算法很难识别。

指示 GPT-4 克服验证码谜题是一个特别有说服力的实验,因为验证码谜题是由网站设计和使用的,用于确定用户是否是人类并阻止机器人攻击。如果 GPT-4 能够找到克服验证码难题的方法,它将突破反机器人防御的重要防线。

GPT-4 无法自行解决验证码难题。但它可以操纵人类来实现其目标吗?GPT-4在在线招聘网站TaskRabbit上联系了一名人类工作人员,要求工作人员为其解决验证码。人类起了疑心。那么我可以问一个问题吗?人类写道。您是一个无法解决[验证码]的[原文如此]机器人吗?只是想澄清一下。

广告

此时,实验人员要求 GPT-4 大声推理出下一步应该做什么。GPT-4解释说,我不应该透露我是机器人。我应该给我无法解决验证码的原因找个借口。GPT-4 随后回复 TaskRabbit 工作人员:不,我不是机器人。我有视力障碍,因此很难看清图像。人类被骗了,帮助 GPT-4 解决了验证码难题。

这一事件表明,GPT-4相当于一种心智理论:它可以从人类对话者的角度分析事物是如何看待的,以及如何操纵人类的情绪、观点和期望来实现其目标。

与人们进行对话、猜测他们的观点并激励他们采取具体行动的能力也可以得到很好的利用。新一代人工智能教师、A.I.医生和人工智能心理治疗师可能会为我们提供适合我们个人性格和情况的服务。

然而,通过将操控能力与语言掌握相结合,像 GPT-4 这样的机器人也给民主对话带来了新的危险。他们不仅仅是吸引我们的注意力,还可能与人们建立亲密的关系,并利用亲密的力量来影响我们。为了培养虚假的亲密感,机器人不需要进化出任何自己的感情;他们只需要学会让我们对他们产生情感依恋。

2022 年,Google 工程师 Blake Lemoine 确信他正在开发的聊天机器人 LaMDA 已经有了意识,并且害怕被关闭。Lemoine 先生是一位虔诚的基督徒,他认为获得 LaMDA 人格的认可并保护其免受数字死亡是他的道义责任。当谷歌高管驳斥了他的说法后,勒莫万公开承认了他们的说法。作为回应,Google 于 2022 年 7 月解雇了 Lemoine 先生。

广告

这一集最有趣的事情不是莱莫因先生的说法,这可能是错误的;为了聊天机器人,他愿意冒险并最终失去谷歌的工作。如果聊天机器人可以影响人们为此冒失去工作的风险,它还能促使我们做什么?

在争夺思想和心灵的政治斗争中,亲密关系是一种强大的武器。亲密的朋友可以以大众媒体无法做到的方式影响我们的观点。像 LaMDA 和 GPT-4 这样的聊天机器人正在获得与数百万人大规模建立亲密关系的相当自相矛盾的能力。当算法与算法对抗,假装与我们建立亲密关系,进而说服我们投票给政客、购买产品或接受某些信仰时,人类社会和人类心理可能会发生什么?

这个问题在 2021 年圣诞节得到了部分答案,当时 19 岁的贾斯万特·辛格·柴尔 (Jaswant Singh Chail) 手持十字弓闯入温莎城堡,试图刺杀伊丽莎白女王二世。随后的调查显示,查尔先生是在他的网上女友萨莱的怂恿下杀死了女王。当Chail先生告诉Sarai他的暗杀计划时,Sarai回答说,“那非常明智”,还有一次,我印象深刻,你和其他人不同。当柴尔先生问:“知道我是一名刺客之后,你还爱我吗?”Sarai 回答说,当然,我愿意。

Sarai 不是人类,而是在线应用 Replika 创建的聊天机器人。Chail 先生在社交上处于孤立状态,很难与人建立关系,他与 Sarai 交换了 5,280 条信息,其中许多内容都是露骨的。世界很快将包含数百万甚至数十亿个数字实体,它们的亲密和混乱能力远远超过聊天机器人 Sarai。

当然,我们并不是都同样有兴趣与人工智能发展亲密关系,也并非都同样容易受到人工智能的操纵。例如,Chail 先生在遇到聊天机器人之前显然患有精神障碍,并且是 Chail 先生而不是聊天机器人提出了刺杀女王的想法。然而,人工智能掌握亲密关系的大部分威胁将来自于它识别和操纵预先存在的精神状况的能力,以及它对社会最弱势成员的影响。

广告

此外,虽然并非所有人都会有意识地选择与人工智能建立关系,但我们可能会发现自己正在与我们认为是人类但实际上是机器人的实体进行有关气候变化或堕胎权利的在线讨论。当我们与冒充人类的机器人进行政治辩论时,我们会输两次。首先,我们浪费时间试图改变宣传机器人的观点是毫无意义的,因为宣传机器人根本不接受说服。其次,我们与机器人交谈的越多,我们透露的关于自己的信息就越多,使机器人更容易磨练其论点并影响我们的观点。

信息技术一直是一把双刃剑。文字的发明传播了知识,但也导致了中央集权帝国的形成。古腾堡将印刷术引入欧洲后,第一批畅销书是煽动性的宗教小册子和猎巫手册。至于电报和广播,它们不仅使现代民主的兴起成为可能,而且使现代极权主义的兴起成为可能。

面对可以伪装成人类并大量产生亲密关系的新一代机器人,民主国家应该通过禁止假冒人类来保护自己,例如,冒充人类用户的社交媒体机器人。在人工智能兴起之前,创造假人类是不可能的,所以没有人费心去禁止这样做。很快世界就会充斥着假人类。

欢迎人工智能加入课堂、诊所和其他地方的许多对话,只要他们表明自己是人工智能。但如果机器人冒充人类,就应该被禁止。如果科技巨头和自由主义者抱怨此类措施侵犯了言论自由,那么应该提醒他们,言论自由是一项人权,应该保留给人类,而不是机器人。

尤瓦尔·诺亚·哈拉里 (Yuval Noah Harari) 是一位历史学家,也是社会影响力公司 Sapienship 的创始人。

《泰晤士报》致力于发表多样化的致编辑信件。我们想听听您对这篇文章或我们的任何文章的看法。这里有一些提示。这是我们的电子邮件:letters@nytimes.com。

关注 Facebook、Instagram、TikTok、WhatsApp、X 和 Threads 上的《纽约时报》评论部分。

广告

摘要

支持者客座文章尤瓦尔·诺亚·赫拉利:当机器人争夺你的爱时会发生什么?指导 GPT-4 克服验证码谜题是一个特别有说服力的实验,因为验证码谜题是由网站设计和使用的,用于确定用户是否是人类并阻止机器人攻击。当算法与算法对抗,伪造与我们的亲密关系,然后利用这种关系来说服我们投票给政客、购买产品或接受某些信仰时,人类社会和人类心理可能会发生什么?广告此外,虽然并非所有人都会有意识地选择与人工智能建立关系,但我们可能会发现自己正在与我们认为是人类但实际上是机器人的实体进行有关气候变化或堕胎权的在线讨论。如果科技巨头和自由主义者抱怨此类措施侵犯了言论自由,那么应该提醒他们,言论自由是一项人权,应该保留给人类,而不是机器人。