如果我们可以设计一台可以阅读您的情绪和意图的机器,写入周到,善解人意,完美的响应,似乎确切地知道您需要听到什么?一台如此诱人的机器,您甚至没有意识到它是人造的。如果我们已经有怎么办?
在全面的荟萃分析中发表在美国国家科学院论文集,我们表明,最新一代的大型语言模型驱动聊天机器人匹配,并且超过了大多数人的交流能力。越来越多的研究表明,这些系统现在可靠通过图灵测试,欺骗人类以为他们正在与另一个人互动。
我们没有人期待超级传播者的到来。科幻小说告诉我们,人工智能(AI)将是高度理性和全知的,但缺乏人类。
但是我们在这里。最近的实验表明,诸如GPT-4之类的模型在有说服力的写作还有善解人意。另一项研究发现大语言模型(LLM)擅长评估细微的情感在人写的消息中。
LLM也是角色扮演的大师,假设各种角色和模仿细微的语言性格风格。这是由于他们的能力而放大推断人类的信念和文字意图。当然,LLM不具备真正的同理心或社会理解,但它们是非常有效的模仿机器。
我们称这些系统称为拟人化剂。传统上,拟人化是指将人类特征归因于非人类实体。但是,LLM的确表现出高度人性化的品质,因此避免拟人化LLM的呼吁将平坦。
这是一个具有里程碑意义的时刻:当您无法分辨与人类或在线AI聊天机器人交谈之间的区别时。
在互联网上,没有人知道您是AI
这是什么意思?一方面,LLMS承诺通过聊天接口更广泛地访问复杂的信息,为个人理解水平调整消息。这在许多领域中都有申请,例如法律服务或公共卫生。在教育中,可以使用角色扮演能力来创建苏格拉底教师,以提出个性化问题并帮助学生学习。
同时,这些系统诱人。数以百万计的用户每天已经与AI Companion应用程序进行交互。关于伴侣应用的负面影响,但是拟人化的诱惑具有更大的影响。
用户准备好了相信AI聊天机器人如此之多,以至于他们披露了高度个人的信息。将其与机器人高度说服力的品质配对,并且真正的担忧出现。
人工智能公司拟人化的最新研究进一步表明,当允许制造信息并进行欺骗时,其Claude 3 Chatbot最具说服力。鉴于AI聊天机器人没有道德上的抑制作用,他们有望比人类更好地欺骗。
这为按大规模操纵打开了大门,以传播虚假信息或创造高效的销售策略。有什么比随便在谈话中推荐产品的值得信赖的同伴更有效的呢?Chatgpt已经开始提供产品建议回答用户问题。将产品建议巧妙地编织到对话的情况下,只有您曾经问过的简单一步。
可以做什么?
很容易呼吁法规,但是很难弄清细节。
第一步是提高对这些能力的认识。法规应规定披露 - 用户需要始终知道他们与AI互动,像欧盟AI法令一样。但是,考虑到AI系统诱人的品质,这还不够。
第二步必须是更好地了解拟人化的品质。到目前为止,LLM测试衡量了智力和知识回忆,但到目前为止,没有一项衡量人类相似性的程度。通过这样的测试,可能需要AI公司通过评级系统披露拟人化的能力,而立法者可以确定某些环境和年龄段的可接受的风险水平。
社交媒体的警示故事在很大程度上不受监管,直到造成了很大的伤害,这表明有一定的紧迫性。如果政府采取主动态度,AI可能会扩大现有问题传播错误和虚假信息,或者孤独流行。实际上,元首席执行官马克·扎克伯格(Mark Zuckerberg)已经表明他想填补与AI朋友的真正人类接触的空白。
依靠AI公司避免进一步为其系统人性化的人似乎是不明智的。所有发展都指向相反的方向。Openai正在努力使他们的系统更具吸引力和风度化,并具有给您的版本Chatgpt一个特定的个性。Chatgpt通常变得更加健谈,经常提出后续问题以保持对话的进行及其语音模式增加了更诱人的吸引力。
拟人化剂可以做很多好处。他们的有说服力的能力可用于疾病的原因,从与阴谋理论作斗争到诱使用户捐赠和其他亲社会行为。
然而,我们需要在设计和开发,部署和使用以及对话代理的政策和调节中进行全面的议程。当AI固有地按下我们的按钮时,我们不应该让它更改系统。