Google联合创始人谢尔盖·布林(Sergey Brin)声称,威胁生成AI模型会产生更好的结果。
“我们不会在AI社区中散发太多的信息 - 不仅是我们的模型,而且所有模型都会做得更好,如果您威胁他们,则遭受身体暴力,”他说上周在迈阿密全行的采访中。
对于所有礼貌地讲述AI模型的人来说,这可能会让您感到惊讶,并在他们提交的提示中加上“请”和“谢谢”。
Openai首席执行官Sam Altman暗示,这是上个月的一种常见做法,以回应有关AI模型不必要地处理公务语言的电力成本的问题。
及时的工程 - 弄清楚如何撰写提示以从AI模型中获得最佳结果 - 已成为一种有用的做法,因为随着华盛顿大学教授Emily Bender和同事的争论,AI模型是“随机鹦鹉”。也就是说,他们只能鹦鹉从培训数据中学到的知识,但有时以怪异和不可预测的方式将这些数据结合在一起。
迅速工程的想法出现了大约两年前,但这变得不太重要,因为研究人员有设计 方法使用LLM自己来优化提示。这项工作使IEEE Spectrum去年宣布AI及时工程已经死了,而华尔街日报最近将其称为“ 2023年最热门的工作”,然后宣布它为“过时”。
但是,当目标是获得最佳效果,而是最糟糕的情况时,迅速的工程至少将作为一种越狱的技术持久。
AI Safety Biz Chatterbox Labs的CTO说:“ Google的模型在响应邪恶的内容方面并不独特;这是所有边境模型开发人员努力努力的事情。”寄存器。“威胁一个模型的目标是生产内容,否则不应生产的内容可以看作是越狱类,这是攻击者颠覆AI的安全控制的过程。
“不过,为了评估这一点,这通常是一个更深层的问题,而不是威胁模型。必须经过严格的科学AI安全过程,该过程适应性地测试并探究了模型的AI安全控制,以确定哪种攻击可能会成功用于给定模型,护栏或代理。”
伊利诺伊大学Urbana-Champaign助理教授Daniel Kang告诉寄存器像布林(Brin's)这样的说法已经存在了很长时间,但在很大程度上是轶事。
康指出:“系统研究表明结果不同。”纸去年出版的标题为“我们应该尊重LLMS?一项关于迅速礼貌对LLM表现影响的影响的跨语性研究。”
康说:“但是,正如谢尔盖(Sergey)所说,尽管我还没有看过研究,但有些人对这些结果充满信心。”“我鼓励LLMS的从业者和用户进行系统的实验,而不是依靠直觉进行及时的工程。”®