作者:Written by Tiernan Ray, Senior Contributing Writer Jan. 9, 2025 at 3:00 a.m. PT
是艺术与科学及时工程, 指令的细化生成式人工智能,是好事还是坏事?令人惊讶的是,并没有达成普遍共识。
在取得巨大成功之后,到 2024 年,即时工程将成为一种日益重要的用户界面工具。聊天GPT2022 年和 2023 年。认识到为大型语言模型和相关技术塑造和制作指令可能会取得更好或更差的结果促进设计自己的充满活力的探索领域。
还:编写更好的 ChatGPT 提示并更快获得您想要的结果的 7 种方法
出于“精心设计的提示对于从法学硕士获得准确且相关的输出至关重要”的信念,激进的人工智能用户(例如乘车共享服务 Uber)已经围绕该主题创建了整个学科。一个
然而,有一个合理的论点认为,对于大多数 gen AI 用户(包括专家)来说,提示是错误的界面。
谷歌 DeepMind 研究部门人机交互首席科学家梅雷迪思·林格尔·莫里斯 (Meredith Ringel Morris) 写道:“我的专业观点是,对于生成式人工智能系统来说,提示是一个糟糕的用户界面,应该尽快淘汰。”十二月号计算机科学杂志《ACM 通讯》的作者。
还:CES 2025:迄今为止最令人印象深刻的 13 款产品
莫里斯指出,提示并不是真正的“自然语言界面”。它们是“伪”自然语言,因为它们工作的大部分内容都是不自然的。
莫里斯写道:“与人类对话者无关的提示变化(例如,交换同义词、细微的改写、间距、标点符号或拼写的变化)会导致模型行为发生重大变化,这一事实应该让我们所有人停下来。”,“并进一步提醒人们,提示距离成为自然语言界面还很远。”
她指出,这些变化让普通用户感到困惑,他们无法依赖给定短语的内容。
莫里斯指出,人类之间的自然语言中存在一些永远不会进入提示的元素。“当人们互相交谈时,他们会共同进行交流,形成对话伙伴交流意图的心理模型,不仅基于言语,还基于副语言和其他语境线索、心理理论能力,并根据需要要求澄清。”。
相比之下,“晦涩难懂的提示往往比简单语言的提示产生更好的结果”,她写道,“提示和真正的自然语言交互之间的细微差别会导致人工智能系统的典型最终用户感到困惑”,并且“导致需要经过专门培训的‘即时工程师’以及即时市场(例如 PromptBase)。”莫里斯补充道,即使是及时的工程设计也会产生不一致、不可靠的结果。
遭受提示缺点之苦的不仅仅是普通用户:提示的使用正在毒害人工智能研究。宣扬每一项新突破的研究论文并没有可靠地报告他们使用了多少提示来实现结果,莫里斯将这种遗漏称为“提示黑客”。
例如,迅速的黑客攻击可能意味着新人工智能模型的基准测试(评估进步的标准方法)不一致,因此是无效的。
莫里斯写道:“虽然模型表面上是在同一组基准上进行测试,但实际上,由于每个组织实施基准测试的方式不同(即用于呈现结果的提示格式),这些指标可能不具有可比性。”对模型进行测试。”
莫里斯提出了多种方法来代替提示。其中包括更受限制的用户界面和熟悉的按钮,为普通用户提供可预测的结果;“真正的”自然语言界面;或各种其他“高带宽”方法,例如“手势界面、情感界面(即由情绪状态介导)、直接操作界面(即在混合现实中或在屏幕上直接操作内容)物理世界)”。
另外: Google 的 Gems 是对 AI 提示工程的温和介绍
莫里斯认为,所有这些方法,而不是神秘的提示,都是与人工智能交互的更简单的方法,“因为它们不需要学习曲线,并且极具表现力。”
她写道,人工智能“正处于关键时刻”。“我们将提示视为自然界面的‘足够好’模拟,这阻碍了进步。
“我预计我们会回顾基于提示的生成式人工智能模型界面,将其视为 2020 年代初的时尚——与日益强大的人工智能系统进行更自然交互的演变过程中的昙花一现。”