作者:John Nosta is an innovation theorist and founder of NostaLab.
来源:艺术:DALL-E/OpenAI
能人工智能了解文化——或者甚至以某种本土风格来表达?这个问题感觉很大胆,但最近的研究表明像 GPT-4 这样的大型语言模型 (LLM) 可能正在回答这个问题。这些模型经过训练可以反映人类行为性格,但一项新的研究挑战我们考虑它们是否可以模拟文化本身丰富多样的模式。
研究人员通过要求 GPT-4 复制美国人和韩国人之间人格特征的差异来探索这一问题——这两种文化都有充分记录的心理差异。这些发现令人着迷,揭示了人工智能作为文化变色龙的潜力和局限性。
该研究的重点是五巨头人格模型,包括诸如外向性,宜人性, 和开放性。这些特征在不同文化中存在显着差异:美国人在外向性和开放性方面得分较高,反映出他们对个人主义和自我表达的重视,而韩国人的得分通常较低,与集体主义价值观和谦虚相一致。
GPT-4 使用提示来模拟美国或韩国视角的反应,生成的输出在很大程度上反映了这些趋势。例如,正如对现实世界行为的研究发现的那样,模拟的韩国人不那么外向,在情感上更加保守。
然而模型的反应并不完美。数据显示,“向上”偏见,—两种文化的特征得分都夸大,与真实的人类数据相比,反应的变异性降低。这些怪癖表明,虽然法学硕士可以反映文化倾向,但它们很难捕捉人类多样性的深度和细微差别。
GPT-4 模仿文化模式的能力令人印象深刻,但研究揭示了其局限性。该模型的输出很大程度上受到激励动力和阿谀奉承的影响,使其文化“个性”变得被动而不是稳定。
提示依赖:模型的行为是由它收到的指令决定的。例如,当提示您在英语中“扮演”美国人或在韩语中“扮演韩国人”时,GPT-4 反映了预期的文化倾向,例如美国人更加开放和外向。但措辞或上下文的细微变化可能会产生完全不同的输出,揭示其模仿的脆弱性。
阿谀奉承:法学硕士旨在满足用户的期望,通常会放大提示所隐含的偏见。虽然这使得 GPT-4 看起来具有文化适应性,但它引发了人们的担忧,即该模型是否反映了真正的文化细微差别或强化了刻板印象。
此外,文化本身并不是静态的。它通过代际更替、地区多样性和个人经历而演变。在静态数据集上训练的人工智能很难掌握这种复杂性。虽然 GPT-4 模仿了广泛的趋势(例如韩国集体主义或美国个人主义),但它的理解仍然很肤浅,并且受到训练数据的限制。目前,GPT-4 更多的是文化的反映,而不是真正的变色龙。
尽管存在这些限制,法学硕士“谈论文化”的能力开启了有趣的可能性。想象一下,人工智能能够调整其交互以适应不同的文化规范——调整语气、措辞甚至个性来适应受众。这可能会彻底改变全球等领域教育、客户服务和跨文化沟通。
在研究中,法学硕士可以成为探索文化行为假设的工具。心理学家可能会用它们来模拟文化互动或在人类参与者参与之前测试理论。然而,这些应用程序也伴随着伦理方面的考虑:我们如何确保人工智能对文化的表征不会强化刻板印象或削弱人类多样性?
在很多方面,人工智能试图表达文化的尝试都反映在我们身上。对于机器来说,模拟人类的价值观和规范意味着什么?模仿模式就足够了,还是真正的理解需要生活经验?LLM 输出的可塑性提醒我们,这些模型是一面镜子,反映了数据中编码的模式以及我们提示中嵌入的期望。
随着法学硕士与我们的日常生活越来越紧密地联系在一起,他们作为文化解释者的角色邀请我们重新思考边界的智力和人性。如果我们将人工智能视为弥合分歧和促进理解的工具,它可以丰富全球互动。但如果我们将模仿误认为掌握,我们就有可能忽视人类文化充满活力、混乱的现实。
那么,AI真的能讲文化吗?也许更好的问题是:我们应该如何倾听?