作者:Yasmin Green and Gillian Tett
当专家担心年轻人与在线信息的关系时,他们通常认为年轻人不像长辈那样识字。但是,吉格索·谷歌的技术孵化器进行的人种志研究揭示了一个更复杂,更微妙的现实:Z世代的成员,通常被理解为1997年以后和2012年之前出生的人,已经制定了在线评估信息的截然不同的策略,这些策略会在线评估信息,这些策略将使30岁以上的人失去新闻。 首先阅读标题,然后阅读故事。他们通常会首先阅读头条新闻,但随后他们跳到了与文章相关的在线评论,只有之后才能深入研究新闻故事的正文。这种特殊的趋势正在揭示。年轻人不相信一个故事是可信的,仅仅是因为专家,社论看门人或其他权威人物都认可了这个故事。他们更喜欢咨询一群同龄人来评估其可信度。即使年轻人不信任机构和权威人物,社交网络的时代也使他们能够安置对匿名人群的信任。
随后在2023年夏季进行人工智能计划CHATGPT之后的一项拼图研究,探讨了印度Z世代成员在印度和美国如何使用AI聊天机器人。该研究发现,年轻人很快就咨询聊天机器人,以获取医疗建议,关系咨询和股票技巧,因为他们认为AI易于访问,不会判断他们,并且对他们的个人需求做出了反应,并且在许多方面,AI建议比从人类那里获得的建议更好。在另一项研究中,咨询公司奥利弗·怀曼(Oliver Wyman)发现了类似的模式:多达39%的Z世代员工宁愿拥有AI同事或经理而不是人类的同事;对于美国Z世代工人来说,这一数字为36%。美国所有员工中有四分之一的感觉也一样,这表明这些态度不仅是年轻省。
这些发现挑战了有关人际交往的重要性和神圣性的传统观念。许多年长的观察家对聊天机器人的兴起感到遗憾,将新技术视为使人们的罪恶和与大社会疏远的人疏远,鼓励个人之间的距离越来越大,而对权威的尊重却丧失。但是看到另一种方式,Z世代的行为和偏好也表明了其他事情:信任的重新配置带来了希望种子的种子。
分析师正在错误地考虑信任。普遍的观点认为,当今西方国家对社会机构的信任正在崩溃,例如,美国人中只有2%的美国人说,他们信任国会,而六十年前则为77%。尽管有55%的美国人在1999年信任媒体,但今天只有32%的人这样做。确实,今年早些时候,民意测验者克里斯汀·索尔蒂斯·安德森(Kristen Soltis Anderson)得出结论,我们越来越不信任我们(美国人)团结起来。”
但是这样的数据只说明了一半的故事。如果通过二十世纪的传统民意测验观看,这张照片确实很可怕,这些民意测验询问人们对机构和权威人物的感觉。但是,浏览人类学或民族志视角跟踪人们所做的事情,而不是简单地告诉民意测验者,并且出现了截然不同的情况。信任不一定在现代世界中消失。它迁移。通过每项新的技术创新,人们都将偏离传统的权威结构,向人群,无定形但非常现实的人和信息,只需花几下的水龙头。
这种转变构成了巨大的危险。一名佛罗里达少年的母亲于2024年自杀,提起诉讼,指责AI公司的聊天机器人鼓励她的儿子自杀。但是这种转变也可以带来利益。尽管不是数字本地人的人可能认为信任机器人的风险,但事实是,Z世代中的许多人似乎认为信任人类权威人物是有风险的(如果不是风险)。如果仔细设计了AI工具,它们可能有可能帮助不要损害人际交往:它们可以用作调解人,帮助两极分化的群体彼此更好地沟通;与人类权威人物相比,他们可以更有效地对抗阴谋论。他们还可以为怀疑人类专家的人提供一种代理感。政策制定者,公民和科技公司的挑战是认识到信任的性质如何发展,然后设计AI工具和政策,以应对这种转变。年轻一代不会像他们的长者那样行事,而忽略他们正在迎来的巨大变化是不明智的。
信任是人类的基本需求:它将人和团体融合在一起,是当今社会生活的民主,市场和大多数方面的基础。它以几种形式运行。第一个也是最简单的信任类型是,个人之间经常通过直接的个人联系将小组束缚在一起的面对面知识。称之为眼神信任。在大多数非工业化环境(人类学家经常研究的类型)以及工业化世界(在朋友,同事,同学,同学和家庭成员的群体中)都可以找到它。
但是,当小组变得越来越大时,面对面的互动就会变得不足。正如进化生物学家罗宾·邓巴(Robin Dunbar)所指出的那样,人脑真正知道的人数是有限的。邓巴认为这个数字约为150。 垂直信任是过去几千年来的巨大创新,允许大型社会通过政府,资本市场,学院和有组织的宗教等机构运作。这些基于规则的,集体,规范的,资源分配系统塑造了人们如何以及在何处指导他们的信任。
在过去的二十年中,社会的数字化使得超越眼神交流和垂直信任的新范式转变为社会科学家Rachel Botsman所说的“分布式信任,或大规模的,点对点相互作用”。这是因为互联网可以在没有眼神交流的组之间进行互动。第一次,完全陌生的人可以彼此协调,以通过Airbnb等应用程序,通过eBay进行交易,通过玩多人视频游戏(例如)互相娱乐Fortnite,甚至通过Match.com等网站找到爱情。
在某些人看来,这些连接似乎是不可信的,因为很容易创建虚假的数字角色,并且在线强加和执行规则没有任何授权。但是,许多人仍然表现得好像他们确实信任人群一样,部分原因是出现了加强信任的机制,例如社交媒体个人资料,朋友,人群肯定工具和在线同行评论,这些评论提供了某种版本的监督。考虑乘车共享应用程序Uber。二十年前,建立一种鼓励陌生人互相私家车的出租车服务似乎是不可想象的。人们并不以这种方式信任陌生人。但是今天,数以百万计的人这样做,这不仅是因为人们相信Uber,作为一个机构,还因为对等评级系统对人群的监视既保证乘客和驾驶员。随着时间的流逝,随着新技术的推动力,信任模式可能会发生变化。
AI在这个故事中提供了一种新的转折,可以理解为一种新颖的信任形式。长期以来,该技术已被悄悄地嵌入日常生活中,例如拼写检查器和垃圾邮件过滤器等工具。但是,生成AI的最近出现标志着一个明显的转变。AI系统现在拥有复杂的推理,可以充当代理,自主执行复杂的任务。这听起来很恐怖。的确,皮尤(Pew)的一项民意调查表明,只有24%的美国人认为AI会使他们受益,而43%的人希望看到它伤害他们。
但是美国对AI的态度并未普遍分享。2024年 IPSOS民意调查发现,尽管在澳大利亚,加拿大,印度,英国和美国的成年人中,大约三分之二的成年人同意,AI使他们感到紧张,但只有29%的日本成年人也共享了这一观点,印尼,波兰和韩国只有大约40%的成年人。尽管在加拿大,英国和美国只有大约三分之一的人同意,他们对AI感到兴奋,日本几乎一半的人民和韩国和印度尼西亚的四分之三人士都感到兴奋。
同时,尽管欧洲和北美的人们告诉民意测验者,他们害怕AI,但他们不断地将其用于生活中的复杂任务,例如获取地图指示,购物时识别物品以及写作的写作。便利是一个原因之一:掌握人类医生可能需要很长时间,但是AI机器人总是可用的。自定义是另一种。在早期,消费者倾向于接受一种适合所有服务的尺寸。但是在二十一世纪,数字化使人们能够在消费世界中做出更多个性化的选择,无论是音乐,媒体还是食物。AI机器人响应并鼓励对定制的日益增长的愿望。
另一个更违反直觉的因素是隐私和中立。近年来,西方广泛担心AI工具将窃取个人数据或偏见。这有时可能是合理的。但是,人种志研究表明,一群用户更喜欢AI工具,正是因为它们似乎比人类更中性,更少的控制和侵入性。拼图采访的Zers之一解释了她以直言不讳的方式与AI交谈的亲和力:聊天机器人可以取消我!
对相信阴谋论的人们的另一项研究发现,即使机器人对他们的思想提出挑战,他们也更愿意与家人或传统权威人物讨论自己的信念,这表明人机互动可以胜过眼神交流和垂直信任机制。正如一个人告诉研究人员的那样:现在,这是我第一次得到一种真正,合乎逻辑,有意义的回应。也许是不正当的,这使他们更容易信任。
鉴于技术变革的速度和代理智力的兴起,这种模式可能会再次发生变化,这是当今生成的AI工具的更复杂和自主的继任者。包括人类,Google和OpenAI在内的主要AI开发人员都在迈向新的环球助手,能够看到,听力,聊天,推理,记忆和跨设备采取行动。这意味着AI工具将能够在没有直接人为监督的情况下做出复杂的决策,这将使他们能够支持客户支持(聊天机器人可以满足客户需求)和编码(与可以帮助工程师完成软件开发任务的代理商)。
新一代的人工智能工具也具有更强的有说服力的能力,在某些情况下,它们似乎和人类一样有说服力。如果这些工具是故意创建并用来操纵人们的,或者只是失火或幻觉,这会引起明显的危险。没有人应该轻描淡写这些风险。但是,周到的设计可能会减轻这种情况:例如,Google的研究人员表明,可以开发工具并提示训练AI以识别和避免操纵语言。与现有的应用程序和数字工具一样,代理AI允许用户进行控制。考虑可穿戴技术,例如Fitbit或Apple Watch,可以监视生命体征,检测有关模式,推荐行为改变,甚至在必要时提醒医疗保健提供者。在所有这些情况下,决定是否响应此类提示以及在AI程序中使用哪些数据是用户,而不是机器人。您的Fitbit不能强迫您慢跑。因此,通过财务计划机器人或用于约会的机器人:技术不像独裁者那样,而是像在线朋友的成员一样,提供可以拒绝或接受的技巧。
以这种方式采用AI工具行动显然可以使人们更加高效,也可以帮助他们更好地组织生活。但是,不太明显的是,这些工具也可以潜在地改善组之间和之间的点对点互动。随着对权威人物的信任已经消失,人们试图自定义其信息来源和在线人群,以至于他们的个人品味变得更加两极化,被困在不相互互动或互动的回声室中。鉴于普遍的不信任,人类权威人物无法轻易解决这个问题。但是,就像AI工具可以在语言之间翻译一样,它们也开始具有在社会语言之间转化的潜力:也就是说,在世界观之间。机器人可以扫描不同群体之间的在线对话,并找到可以将其变成提示的模式和共同点,从而有可能使一个人群能够听到甚至更好地了解其他人的世界观。例如,Google DeepMind和牛津大学的研究人员开发了一种名为“ Habermas Machine”(向德国哲学家Jã¼RgenHabermas的敬意)的AI工具,该工具渴望调解具有反对政治观点的团体之间的争议。它产生的陈述反映了与政治问题相关的小组中的多数和少数观点,然后提出了共同点。在涉及5,000多名参与者的研究中,AI生成的陈述比由人类调解者创建的陈述更为优先,并使他们更加同意分裂问题的前进道路。
对于那些被边缘化的人来说,机器人似乎比人类少。
那么,社会如何在不影响其危险的情况下获得AI的好处呢?首先,他们需要认识到,信任是一种多方面的现象,它已经改变了(并将不断转移),并且技术变革正在发生(并且加剧)社会范围。这意味着AI开发人员需要非常谨慎,谦卑地进行,讨论和减轻他们开发的工具的风险。就Google而言,Google试图通过出版有关高级AI助手的道德迷宫的雄心勃勃的300页的建议来做到这一点,探索如何维护防止AI的保障措施,以防止AI在情感上操纵用户以及衡量人类福祉的含义。其他公司(例如拟人化)也在做同样的事情。但是需要更多的关注私营部门来解决这些不确定性。
消费者还需要开发人员之间的真正选择,以便他们可以选择提供最大隐私,透明度和用户控制的平台。政府可以通过使用公共政策来促进负责任的AI开发以及开放科学和开放软件来鼓励这一点。这种方法可以产生一些安全风险。但这也通过在不同系统之间注入竞争来创造更多的检查和平衡。就像客户可以在银行或电信服务周围购物,如果他们不喜欢一个系统对待它们的方式一样,他们也应该能够在AI代理之间切换以确定哪个平台为他们提供最大的控制权。
在思考人们如何与AI平台互动时,增加人类代理应该是目标。开发人员不必将AI视为专制,机器人的霸主,而需要将其作为人们现有在线人群的超级智能成员而更多地呈现。这并不意味着人们对AI盲目信仰或用它来取代人类对人类的互动;那将是灾难性的。但是,拒绝AI仅仅是因为它似乎是陌生的,这同样愚蠢。与人类一样,人工智能有可能做好坏事,并以值得信赖和不信任的方式行事。如果我们想解除AI的全部好处,我们需要认识到我们生活在一个对领导者信任的世界中,即使我们对人群和我们自己的智慧更加信心。因此,面临的挑战是利用这种数字化的促进,使我们所有人的智慧变得更加明智。
加载中...