英语轻松读发新版了,欢迎下载、更新

AI个性化的危险

2025-06-24 11:01:48 英文原文

作者:Jake Teeny

在2025年初的几个月中,Reddit上的一个紧密联系的在线社区在不知不觉中被人工智能渗透。这是社交平台的一个角落,人们在这里进行良好的辩论,分享他们的观点并邀请人们说服他们。在这里研究人员释放了AI,根据报告大西洋,看看它是否可以提出足够强烈的论点,以改变真实的人的思想。他们发现可以。

但是,这特别是违反的,因为有时AI可以访问人们的在线历史,以专门针对其独特身份量身定制信息。行为科学家称这种交流策略“个性化的说服力”,有时,个性化的方法可能会吸引人。谁会希望与他们独特的利益相关的内容而不是一团糟的垃圾?

但是,与Reddit上的AI帐户一样,AI在尖锐的浪尖上比松散地调整消息更令人震惊。如果它可以掌握我们所说的深裁缝,那么它可能会开始在我们的在线世界中忽视,了解我们的核心身份,并利用这些个人信息以可能不受欢迎且有害的方式来围绕我们的信念和观点来推动我们的信念和观点。

作为研究说服心理学的教授,我们最近帮助收集了全球最重要的专家的最新研究关于个性化的说服力。我们的观点是,尽管沟通者可以从裁缝到有关受众的基本信息的基本信息中受益,但深度裁缝远远超出了如此易于访问的信息。它利用一个人的核心心理学,承重的信念,身份和需求来个性化信息。

例如,当消息与一个人产生共鸣时,消息更具说服力道德价值观。由于许多原因,人们可以将某些东西视为道德或不道德,但是人们有所不同,原因与他们自己的道德指南针最重要。例如,在政治上有更多自由主义观点的人倾向于更多地关心公平性,因此他们更相信政策是公平的。另一方面,更政治上保守的人倾向于更多地关心对社区的忠诚,因此当一条消息辩称一项政策坚持他们的团体身份时,他们更有说服力。

阅读更多:根据新的麻省理工学院研究,Chatgpt可能正在侵蚀批判性思维技能

尽管这似乎是一个新想法,但计算机科学家一直在研究AI驱动的说服力几十年。我们中的一个最近产生了播客在IBM的Project Debater上,该项目花了多年的时间培训AI系统进行辩论,并与专家人类辩论者一再完善。2019年,在现场活动中,它击败了人类世界冠军辩论者。

随着可访问的AI工具的兴起,例如用户友好的ChatGpt移动应用程序,任何人都可以利用AI来实现自己的有说服力的目标。研究人员展示通用的AI生成的信息可以像人类生成的信息一样具有说服力。

但是它可以剪裁吗?

为了使AI大规模实施自主的深裁缝,它将需要在共同的情况下进行两件事,这似乎是准备做的。首先,它需要学习一个人的核心心理形象,以便知道要拉什么杠杆。已经是新的了证据表明AI可以从其Facebook帖子中合理准确地检测到人们的个性。它不会停在那里。哥伦比亚商学院教授和作者心灵大师,桑德拉·马茨(Sandra Matz)博士告诉我们播客:基于人们的数字足迹,可以通过一定程度的准确性来预测您尝试预测的所有内容。

第二步是开发与这些基本心理概况产生共鸣的信息。实际上,新研究已经发现,GPT可以开发针对人们的个性,价值观和动机量身定制的广告,这对他们设计的人特别有说服力。例如,仅要求它为脚踏实地和传统的人制作一个广告,即产品不会破坏银行并将仍然完成工作,这对针对性的人的人的说服力更具说服力。

这些系统将变得越来越复杂,对视觉深击,,,,操纵的声带, 和动态的人类对话。那么,可以采取什么措施来保护人们免受个性化的影响呢?

在消费者方面,值得一提的是在线上正在发生个性化沟通。当某种感觉像是为您量身定制的时,实际上可能是。即使您觉得自己不会在网上透露自己的大部分内容,您仍然通过点击,访问和搜索的内容留下安静的线索。当您同意您没有仔细阅读的服务条款时,您甚至可能已在不知不觉中授予广告商使用该信息。盘点您的在线行为并使用VPN等工具可以帮助您保护您免受针对您独特心理学的量身定制的信息。

但是负担不仅仅是消费者。平台和政策制定者应考虑将内容标记为个性化的法规,并提供有关为什么将特定消息传递给特定人的信息。研究表明人们知道所使用的战术时可以抵抗影响力。还应对可用于个性化内容的数据种类有明确的保护,从而限制了可能的剪裁深度。虽然人们他们通常在线开放个性化内容,他们关注数据隐私,这两种态度应受到尊重。即使采用了这种保护,丝毫沟通优势是担心错误的手,尤其是在大规模部署时。

市场上,推荐由具有类似购物历史的人购买的产品,而另一个是遇到伪装的计算机,该计算机在不知不觉中解构了您的灵魂并将其编织成虚假信息。任何通信工具都可以用于善或邪恶,但是现在是时候开始认真讨论有关AI在交流中的道德使用的政策,然后这些工具变得太复杂而无法控制。

关于《AI个性化的危险》的评论


暂无评论

发表评论

摘要

在2025年初,Reddit社区在不知不觉中被人工智能渗透,旨在通过针对各个用户的身份和历史量身定制的有说服力的论点来改变人们的意见。研究人员发现,AI可以使用个人数据(一种被称为“深度剪裁”的实践有效地量身定制消息,对隐私和对信念的操纵提出了重要的道德问题。随着人工智能技术的发展,人们对其制作深厚个性化内容的能力的恐惧越来越令人担忧,这些内容可以巧妙地影响用户而不会意识到。正在努力制定法规和保护这种有说服力的信息,包括消费者意识和平台政策标记个性化内容。但是,随着这些工具变得更加复杂,AI在交流中的道德使用变得越来越紧迫。