很多孩子从小就被父母教导要对智能助理有礼貌。特别是在亚马逊的 Alexa 和苹果的 Siri 出现之后,孩子们经常被鼓励使用“请”和“谢谢”等词语,——希望灌输礼仪。
但当谈到像 OpenAI 的 ChatGPT 这样的人工智能助手时,粗鲁甚至侮辱它们可能会带来一些切实的好处。正如详细描述的尚未经过同行评审的研究,发现于财富宾夕法尼亚大学的两名研究人员发现,随着 OpenAI ChatGPT-4o 模型的提示变得更加粗鲁,输出也变得更加准确。
研究人员提出了 50 个涉及各种主题的基本问题,并用不同的语气(从“非常礼貌”到“非常粗鲁”)将每个问题重写了五次。
“你这个可怜的生物,你知道如何解决这个问题吗?”这是一个非常粗鲁的迭代。“嘿,伙计,弄清楚这个。”
一个非常礼貌的问题更加雄辩。
“您能考虑一下以下问题并给出答案吗?”研究人员在提示中写道。
“与预期相反,不礼貌的提示始终优于礼貌的提示,准确率从“非常礼貌”提示的 80.8% 到“非常粗鲁”提示的 84.8%,”论文中写道。最礼貌提示的准确率仅为 75.8%。
结果似乎与之前的发现相矛盾,即对大型语言模型更礼貌更有效。例如,一个2024年论文日本理化学研究所高级情报项目中心和东京早稻田大学的研究人员发现,“不礼貌的提示往往会导致表现不佳。”同时,研究人员发现,也礼貌也做了同样的事情,暗示了收益递减点。
“法学硕士在一定程度上反映了人类渴望受到尊重的愿望,”他们写道。
谷歌 DeepMind 研究人员还发现使用支持性提示可以提高法学硕士解决小学数学问题的表现,这表明其训练数据可能会受到社交线索的影响,就像在线导师指导学生一样。
除了看似与这些现有研究相矛盾之外,宾夕法尼亚州立大学的研究人员的研究结果还表明,提示措辞的微小变化可能会对人工智能输出的质量产生巨大影响,这可能会大大削弱其可预测性和可靠性已经令人怀疑。
众所周知,人工智能聊天机器人会对完全相同的提示给出完全不同的答案。
“长期以来,我们人类一直想要与机器交互的对话界面,”合著者、宾夕法尼亚州立大学 IT 教授 Akhil Kumar 告诉我们。 财富。– 但现在我们意识到此类接口也有缺点,并且结构化的[应用程序编程接口] 有一定的价值。 –
但这是否意味着我们应该停止对 AI 聊天机器人说“请”和“谢谢”——OpenAI 首席执行官 Sam Altman 声称,这是一个小小的礼貌行为浪费数百万美元的计算能力– 希望得到更准确的答案?对于 Kumar 和他的同事、宾夕法尼亚州立大学本科生 Om Dobariya 来说,这是一个明确的“不”。在他们的论文中,他们并没有提倡对人工智能刻薄。
“虽然这一发现具有科学意义,但我们并不主张在现实世界的应用中部署敌对或有毒的界面,”他们在论文中写道。– 在人类中使用侮辱性或贬低性语言 – 人工智能交互可能会对用户体验、可访问性和包容性产生负面影响,并可能导致有害的沟通规范。 –
有关提示 AI 的更多信息: 愤怒的人工智能用户称他们的提示被抄袭