- 新的人工智能模型可以在 2 小时聊天后模仿人类性格
- 模拟人类行为的准确率达到 85%
- 人工智能可能会改变行为和意见的建模方式
斯坦福大学和谷歌DeepMind 发布了一项新研究纸展示他们如何训练人工智能模型模仿人们的行为方式。这1,000 人的生成代理模拟研究创建了真人的数字复制品,经过两个小时的采访后,这些复制品可以以 85% 的准确度模仿他们的性格。与人工智能聊天几个小时,它就会学会很好地模拟你的反应,让它看起来像你一样思考。
这项研究的一千多名参与者首先向人工智能朗读了《了不起的盖茨比》的开场白。显然,这在人工智能中相当于锻炼前的伸展运动。之后,一个 2D 角色向他们询问了有关他们的生活、信仰、工作、家庭等的问题。人工智能只需大约两个小时,平均包含 6,491 个单词,就具备了构建数字克隆所需的一切。
克隆人似乎也知道自己在做什么。当被要求回答性格测试或一般调查中的问题时,人工智能代理给出的答案在大约 85% 的情况下与现实世界中的对应者相符。距离足够近,可以在餐厅为您点餐,但配菜可能不对。
研究人员用囚徒困境和独裁者博弈等经济游戏对这些人工智能克隆进行了测试,参与者在其中对合作、信任和共享资源做出选择。虽然人工智能只有大约 60% 的时间与真人的决策相匹配,但这仍然不能归因于偶然。
人工智能可能不会欺骗你的配偶或最亲密的朋友,但从这个简短的采访来看,它相当令人印象深刻。人工智能可以模仿决策模式、观点,甚至个性怪癖。想想看:你花了数年时间才弄清楚你是谁,而这个人工智能在一个下午就弄清楚了。就像所有优秀的人工智能演示一样,这令人震惊,而且有点令人毛骨悚然。
人类行为
斯坦福大学和 DeepMind 将这种人工智能视为推进人类行为研究的一种方式。这也是人工智能如何模拟人类集体行为的一瞥。想知道社区对新的卫生政策有何反应?启动一些生成代理。好奇客户会对大胆的产品重新设计有何反应?问问人工智能克隆人。从本质上讲,它可能是一个永恒的焦点小组。
当然,如果人工智能在一次面试后就能很好地模仿你,那么当它能够访问多年的数据时会发生什么?社交媒体帖子、在线购物习惯,甚至你的 Spotify 播放列表都可以帮助人工智能了解你,或者至少迎合你的喜好,甚至是那些你不知道自己有的喜好。
有很多 Ponetila 被骗子和其他恶意行为者滥用,但目前,这项技术掌握在研究人员手中,重点是学习如何使其在社会学、心理学和经济学等领域发挥作用。技术朝这个方向发展是不可避免的。没有什么比创造出努力与我们一样的东西更人性化的了。