英语轻松读发新版了,欢迎下载、更新

人工智能能否弥合真正的政治分歧?

2024-12-17 10:53:36 英文原文

作者:Julia Yarkoni

一些科学家正在开发一个程序,它可以做你父母做不到的事情。让你们都停止争论了。

计算机调解员向正在争吵的两兄弟展示了他们的一致意见。(新闻解码器插图)

本文是专门为 News Decoder 的全球新闻服务制作的。正是通过这样的文章,News Decoder 致力于为复杂的全球事件和问题提供背景,并通过新闻的视角教授全球意识。学习您如何将我们的资源和服务融入您的课堂或教育计划中。 

作家兼律师朱莉·希尔兹 (Julie Shields) 住在英国,当时她非常担心美国缺乏对话,因此于 2024 年搬回英国。 

“我担心我们的国家,”她说。 

她和她的朋友们创建了一个名为“厨房餐桌谈话”的组织——焦点小组,通过举行非正式讨论来增加不同类型的人之间的对话。

但在 2024 年 11 月美国总统大选之前,没有共和党人同意参加。现在,选举结束后,一些极右翼的特朗普支持者正在加入讨论小组。但她说,进展缓慢。

当两个两极分化政党的成员最终妖魔化对方以在选举中占据上风时,在选举后对对话持开放态度可能会具有挑战性。 

寻找复合的方法

对于一些家庭来说,争吵的频率和强度已经变得难以忍受,以至于他们不再一起庆祝节日。

受到美国政治话语分歧影响的不仅仅是家庭。记者安娜·拉塞尔 (Anna Russell) 在《纽约客》杂志上撰文介绍了一位来自加拿大阿尔伯塔省的年轻女子,她说她与家人断绝关系的部分原因是在当时的美国问题上经常发生分歧。总统候选人唐纳德·特朗普和美国最高法院法官布雷特·卡瓦诺。

自特朗普进入政治舞台以来,这种两极分化实际上正在导致家庭破裂。早在 2016 年,当特朗普首次竞选总统时,社会心理学家乔纳森·海特 (Jonathan Haidt) 就清楚地意识到了它的危险,当时他在一篇关于美国的文章中谈到了美国。TED 播客:“我们的左右分歧是我们面临的最重要的分歧。”

英国伦敦谷歌 DeepMind 的一组研究人员正试图用人工智能来解决这个问题。根据一个研究发表在《科学》杂志上2024 年 10 月,该团队训练了一个名为“哈贝马斯机器”的大语言人工智能模型,将人们的反对意见作为输入,并就不同的政治问题(包括英国脱欧、移民、最低工资、全民儿童保育)提出广泛认同的声明。和气候变化。 

该机器被命名为于尔根·哈贝马斯德国哲学家,其交往行为理论认为,口头语言和社会行为的协调是相辅相成的。

通过人工智能进行调解

如果人工智能机器能够帮助像希尔兹团体中的人们达成一致意见,会发生什么?

人工智能机器是由代码组成的神经网络,可以响应输入数据,生成与输入数据一致的输出数据。该科学研究的作者之一、神经科学家克里斯托弗·萨默菲尔德 (Christopher Summerfield) 表示,这就像对话中发生的情况一样。

“这就像两个人进行对话时,一个人说了些什么,另一个人则以某种方式与第一个人所说的内容相关的信息进行回应,”萨默菲尔德说。 

此功能称为数据映射,最好的人工智能机器通过练习可以显着提高执行此功能的能力。

萨默菲尔德表示,哈贝马斯机器经过训练,可以输入数千人对特定问题的私人意见,并将输出计算为总结代表大多数意见立场的声明。萨默菲尔德表示,该团体声明随后由个人进行评分,然后利用反馈来调整哈贝马斯机器的代码以提高性能。

对话促进

优秀对话主持人的特点之一是确保所有参与者都感到被包容。萨默菲尔德说,哈贝马斯机器能够通过防止多数效应的暴政来做到这一点,在这种现象中,少数群体的权利或需求被多数人的偏好所取代。 

萨默菲尔德的研究表明,即使在大规模权衡数千种意见的情况下,人工智能也有能力增加少数人的意见数量,这样它的声音就不会被多数人的声音所掩盖。

优秀对话引导者的第二个特点是不仅让人们感到自己的意见被倾听,而且让他们的观点受到赞赏。 

2023 年,在多学科科学期刊《美国国家科学院院刊》(PNAS) 上,来自美国各地的研究员 Lisa Argyle 和她的团队描述了他们如何使用大型语言模型以人工智能聊天助手的形式提出基于证据的实时建议,旨在改善参与者的理解感。 

尽管人们在选定的枪支管制话题上没有改变立场,但可选的人工智能助手模拟了训练有素的人类主持人所扮演的角色,但具有重要的优势,例如在有人说出否定谈话语气的话之前进行干预。

通过人工智能进行对话会危险吗?

使用人工智能作为主持人有哪些缺点?就连萨默菲尔德也说:“所有技术都可以用来做好事,也可以用来做坏事。”

这就是瑞士弗里堡大学政治传播学教授雷古拉·亨格利(Regula Hänggli)在将人工智能快速引入政治对话领域时遇到的问题。 

数字民主专家亨格利表示,基本问题是人工智能及其算法是否应该用来影响公民的生活。她说,人们首先应该问:我们(人民)想要这个吗?

需要有一种既定的道德方式来规范人工智能在公共领域的使用。研究中心正在研究人类和人工智能有效合作的方式,这样人工智能就不会被赋予太多权力。 这

麻省理工学院集体智慧中心探讨了人类和人工智能相互补充的背景,并在2024 年 10 月发布了调查结果在《自然·人类行为》杂志上。 它表明,由于编写文本更多的是一项创造性任务,而不是一项分析任务,因此人类与人工智能的接触是有好处的。

创新语言的蓬勃发展取决于人类应用上下文和发现细微差别的能力,而人工智能可以处理背景研究、数据分析和模式识别。 

正如希尔兹在她的厨房餐桌谈话中发现的那样,最好的对话依赖于语言的力量,需要人类的参与。“人们需要愿意来到谈判桌前参与,”希尔兹说。 

需要考虑三个问题:

  1. 冥想者在帮助人们解决分歧方面发挥什么作用?
  2. 人工智能如何在纠纷中发挥调解人的作用?
  3. 您认为作为调解者,人类在哪些方面比人工智能更好或更差?

关于《人工智能能否弥合真正的政治分歧?》的评论


暂无评论

发表评论

摘要

科学家们正在开发一种名为“哈贝马斯机器”的人工智能程序,旨在促进对立政治观点之间的对话和协议。该机器受到哲学家尤尔根·哈贝马斯的交往行为理论的启发,可以处理对英国脱欧和气候变化等各种问题持不同意见的个人的输入,生成广泛认可的声明。该人工智能旨在缓解美国的政治两极分化,自 2016 年总统选举以来,政治两极分化已造成家庭和社会裂痕。尽管该机器在代表少数群体声音和促进包容性对话方面表现出了希望,但人们仍然担心它的道德使用和在影响公共话语方面的潜在滥用。