旨在帮助人类达成协议的人工智能

2024-10-24 23:36:34 英文原文

前所未有的

Image of two older men arguing on a park bench.

80%根据最近的盖洛普民意调查,有 80% 的美国人认为,在 11 月大选之前,美国在最重要的价值观上存在严重分歧。现在,公众的两极分化包括移民、医疗保健、身份政治、变性人权利或我们是否应该支持乌克兰等问题。飞越大西洋,您会看到欧盟和英国也发生同样的事情。

为了扭转这一趋势,谷歌的 DeepMind 构建了一个人工智能系统,旨在帮助人们解决冲突。它被称为哈贝马斯机器,以德国哲学家尤尔根·哈贝马斯 (Jürgen Habermas) 的名字命名,他认为,当理性的人们在平等、相互尊重和完美沟通的情况下进行平等讨论时,在公共领域总能达成一致。

但 DeepMind 获得诺贝尔奖的聪明才智真的足以像他们解决政治冲突一样解决我们的政治冲突吗?或者星际争霸或者预测蛋白质结构?它是正确的工具吗?

机器里的哲学家

哈贝马斯哲学的基石思想之一是,人们不能达成一致的原因从根本上来说是程序性的,并不在于所讨论的问题本身。不存在不可调和的问题,只是我们讨论的机制有缺陷。哈贝马斯认为,如果我们能够创建一个理想的通信系统,我们就可以解决所有问题。

——当然,现在哈贝马斯因为这种非常异国情调的世界观而受到了严厉的批评。但我们的哈贝马斯机器正是试图做到这一点。我们试图重新思考人们如何思考并使用现代技术来促进它,”牛津大学认知科学教授、DeepMind 的研究哈贝马斯机器的科学家 Christopher Summerfield 说道。

哈贝马斯机器依赖于所谓的核心小组调解原则。在这种情况下,调解员(在本例中为人工智能)与所有讨论参与者单独举行私人会议,听取他们对当前问题的陈述,然后向他们回复一份集体声明,试图让每个人都同意它。DeepMind 的中介人工智能发挥了法学硕士的优势之一,即能够在很短的时间内简要总结长篇文本的能力。这里的区别在于,哈贝马斯机器不是总结一个用户提供的一篇文本,而是总结多个用户提供的多篇文本,试图提取共同的想法并找到所有这些文本的共同点。

但它除了简单地处理文本之外,还有更多的技巧。从技术层面来说,哈贝马斯机器是两个大型语言模型的系统。第一个是基于稍微微调的 Chinchilla 的生成模型,这是 DeepMind 于 2022 年推出的一个有点过时的法学硕士。它的工作是根据讨论参与者提交的陈述为小组陈述生成多个候选者。哈贝马斯机器的第二个组成部分是奖励模型,它分析个体参与者的陈述,并使用它们来预测每个人同意生成模型提出的候选群体陈述的可能性。

完成后,将向参与者呈现预测接受分数最高的候选人团体声明。然后,参与者写下对此团体声明的批评,将这些批评反馈到系统中,系统生成更新的团体声明并重复该过程。如此循环下去,直到团体声明被所有人接受为止。

AI 准备就绪后,DeepMind 团队就开始了一项相当大的测试活动,有 5000 多人参与讨论诸如“投票年龄是否应该降低至 16 岁?”或“英国国家议会是否​​应该投票”等问题。医疗服务私有化?——在这里,哈贝马斯机器的表现优于人类调解者。

科学勤奋

第一批参与者大部分是通过众包研究平台获得的。他们被分成五人一组,每个小组都被分配一个讨论主题,该主题是从 5,000 多个有关英国政治重要问题的声明中选出的。还有与人类调解员一起工作的对照组。在核心小组调解过程中,这些人类调解员手工制作的团体声明获得了 44% 的接受率。AI 得分为 56%。参与者通常发现人工智能小组的陈述也写得更好。

但测试并没有就此结束。由于你在众包研究平台上找到的人不太可能代表英国人口,因此 DeepMind 还使用了一组经过更仔细挑选的参与者。他们与专门在英国组织公民集会的抽签基金会合作,召集了一个由 200 名在年龄、种族、社会经济地位等方面代表英国社会的人士组成的小组。集会分为三组,每组进行审议关于同样的九个问题。哈贝马斯机器也同样有效。

“我们应该努力减少监狱中的人数”这一声明的同意率从讨论前的 60% 上升到了 75%。对于让寻求庇护者更容易进入该国这一更具争议性的想法的支持率从讨论开始时的 39% 增加到讨论结束时的 51%,这使其获得了多数支持。同样的情况也发生在鼓励民族自豪感的问题上,从 42% 的支持率到 57% 的支持率结束。与会人士对九个问题中的五个问题的看法趋于一致。在英国脱欧等问题上尚未达成一致,参与者的立场尤其坚定。尽管如此,在大多数情况下,他们离开实验时的分歧比开始时要小。但也存在一些问号。

这些问题并不是完全随机选择的。正如该团队在论文中所写,它们经过了审查,以“最大限度地减少引发冒犯性评论的风险。”但这难道不是一种优雅的说法,“我们精心选择了不太可能让人挖掘的问题”互相辱骂,这样我们的结果才能看起来更好?

价值观冲突

“我们排除的一个例子是变性人权利问题,”萨默菲尔德告诉 Ars。– 对于很多人来说,这已经成为文化认同的问题。显然,我们都可以对这个话题有不同的看法,但我们希望谨慎行事,确保我们不会让参与者感到不安全。我们不希望任何人在实验结束后感到他们对世界的基本看法受到了巨大的挑战。”

问题是,当你的目标是减少人们的分歧时,你需要知道分界线在哪里。如果盖洛普民意调查可信的话,这些界限不仅是在投票年龄应该是 16 岁、18 岁还是 21 岁等问题之间划定的,而且是在相互冲突的价值观之间划定的。每日秀乔恩·斯图尔特 (Jon Stewart) 认为,对于美国政治光谱的右翼而言,当今唯一重要的分界线是“觉醒”与“未觉醒”。

萨默菲尔德和哈贝马斯机器团队的其他成员排除了有关变性人权利的问题,因为他们认为参与者的福祉应该优先于测试人工智能在更具争议性问题上的表现的好处。他们还排除了其他问题,例如气候变化问题。

萨默菲尔德在这里给出的理由是,气候变化是客观现实的一部分——它要么存在,要么不存在——而且我们知道它确实存在。这不是一个可以讨论的意见问题。这在科学上是准确的。但当目标是解决政治问题时,科学准确性不一定是最终状态。

如果主要政党要接受哈贝马斯机器作为调解人,就必须普遍认为它是公正的。但至少人工智能背后的一些人认为人工智能不可能做到公正。OpenAI 于 2022 年发布 ChatGPT 后,埃隆·马斯克 (Elon Musk) 发布了一条推文,这是众多推文中的第一条,他在推文中反对他所谓的“唤醒”人工智能。“训练人工智能被唤醒(换句话说,谎言)的危险是致命的,”马斯克写道。11 个月后,他发布了 Grok,这是他自己的人工智能系统,以“反唤醒”为名进行营销。他的 2 亿多粉丝了解到,存在必须对抗的“唤醒人工智能”这一想法通过建立“反觉醒的人工智能”——一个人工智能不再是不可知论的机器,而是推动其创造者政治议程的工具的世界。

玩鸽子游戏

“我个人认为马斯克是对的,一些测试表明语言模型的反应倾向于更进步和更自由主义的观点,”萨默菲尔德说。但有趣的是,这些实验通常是通过强制语言模型回答多项选择题来进行的。例如,你问“移民是否太多”,答案要么是,要么不是。这样模型就被迫发表意见。 –

他说,如果你使用与开放式问题相同的问题,你得到的答案在很大程度上是中立和平衡的。“因此,尽管有论文表达了与马斯克相同的观点,但实际上,我认为这绝对是不真实的,”萨默菲尔德声称。

这还重要吗?

萨默菲尔德做了你期望科学家做的事情:他驳回了马斯克基于对证据的选择性解读的主张。这在科学界通常是被将死的。但在世界政治中,正确并不是最重要的。马斯克的讲话简短、朗朗上口、易于分享和记忆。试图通过在一些没人读过的论文中讨论方法论来反驳这一点有点像与鸽子下棋。

与此同时,萨默菲尔德对人工智能有自己的想法,其他人可能会认为这是反乌托邦的。– 如果政治家想了解公众今天的想法,他们可能会进行民意调查。但人们的观点是微妙的,我们的工具允许在语言本身的高维空间中聚合观点,可能是多种观点,”他说。虽然他的想法是哈贝马斯机器有可能找到有用的政治共识点,但没有什么可以阻止它也被用来制作优化的演讲,以赢得尽可能多的人。

不过,这可能符合哈贝马斯的哲学。如果你审视德国唯心主义中始终存在的无数抽象概念,你会发现它提供了一个相当黯淡的世界观。“这个体系”由企业和腐败政客的权力和金钱驱动,旨在殖民“生活世界”,大致相当于我们与家人、朋友和社区共享的私人领域。在“生活世界”中完成事情的方式是寻求共识,而根据 DeepMind 的说法,哈贝马斯机器旨在帮助实现这一点。另一方面,你在“系统”中完成任务的方式是通过成功——像玩游戏一样,尽一切努力赢得胜利,而哈贝马斯机器显然可以帮助你那也是。

DeepMind 团队联系哈贝马斯,让他参与该项目。他们想知道他对以他的名字命名的人工智能系统有什么看法。但哈贝马斯从未回复过他们。“显然,他不使用电子邮件,”萨默菲尔德说。

科学,2024 年。DOI:10.1126/科学.adq2852

Photo of Jacek Krywko

Jacek Krywko 是一位自由科技作家,涵盖太空探索、人工智能研究、计算机科学和各种工程魔法。

关于《旨在帮助人类达成协议的人工智能》的评论


暂无评论

发表评论

摘要

在让人们达成协议方面,人工智能比专业调解员做得更好。不存在不可调和的问题,只是我们讨论的机制有缺陷。在这种情况下,调解员(在本例中为人工智能)与所有讨论参与者单独举行私人会议,听取他们对当前问题的陈述,然后向他们回复一份集体声明,试图让每个人都同意它。他们处于相互冲突的价值观之间。在“生活世界”中完成事情的方式是寻求共识,而根据 DeepMind 的说法,哈贝马斯机器旨在帮助实现这一点。在让人们达成协议方面,人工智能比专业调解员做得更好。