作者:Lance Eliot
在今天的专栏中,我讨论了人工智能领域一个非常值得注意且有争议的话题,即当谈到人工智能系统应该做什么时,“目的”的作用。事情是这样的。首先,需要澄清的是,我并不是在谈论人工智能设计和开发背后的人类目的。没有。实际的想法是,也许人工智能系统本身应该有一个目的,然后人工智能就可以基本上实现自我导向。自我指导的存在是为了让人工智能能够遵守既定的目的,大概是不断地倾向于承担和指导人工智能的活动和行动的目的。
等一下,有些人可能会大声劝告。建议或规定诸如生成式人工智能或大型语言模型(LLM)之类的人工智能系统应该有明确的自己的目的,这真的有意义吗?
欢迎来到关于这一重大问题的激烈而持续的争论。
我们来谈谈吧。
对创新命题的分析是我正在进行的《福布斯》专栏报道的一部分,内容涉及人工智能的最新进展,包括识别和解释各种有影响力的人工智能复杂性(请参阅链接在这里)。
人类似乎需要生活的目标
在我们深入研究人工智能之前,我想先从人类和人类存在的目的本质开始。
你需要一个人生目标吗?
有人会说,目的更多是可选的,而不是强制性的。你似乎可以在地球上度过一生,完全没有明确的人生目标。就到这里到那里,做这个或那个。不一定有一个宏大的潜在目标来引导你踏上令人呼吸的生活旅程。
其他仔细研究人类的人敦促说,事实并非如此。他们会争辩说,如果没有人生目标,你就不会有太多的生活。你很可能会削弱你应对生活中严酷现实的能力。只有通过目标,你才能承受生存的诸多挑战。
在帕特里克·麦克奈特 (Patrick McKnight) 和托德·卡什达 (Todd Kashda) 题为“生命的目的作为创造和维持健康和福祉的系统:一个综合的、可测试的理论”的研究中,普通心理学评论,2009 年,研究人员就目的提出了以下要点(摘录):
结果似乎是,尽管你有可能避免建立一个目标,但你无疑将不可避免地承担严重后果。设定一个目标将使你走上一条通往社会、心理和生活中其他有益道路的道路。
我想起了约翰·F·肯尼迪发表这一令人难忘的宣言时的名言:“没有目的和方向,努力和勇气是不够的。”
换个角度来说,这里要问的关键问题是人工智能是否属于同一阵营。
一个缺乏内在目标的人工智能系统可能会以类似于人类无目的徘徊的方式徘徊。也许我们应该确保人工智能系统始终有一个内部编码的目的。然后,人工智能在采取任何行动或执行其所能发挥的任何能力时就能够参考其目的。
这不仅带来了无数的社会和心理考虑,至少涉及人工智能如何影响人类,而且还存在深刻的哲学道德、伦理、法律和技术考虑。关键在于这个棘手的话题没有简单的答案。
我的目的是阐明所涉及的重点。
宏观的角度要求我们从两个广阔的领域来思考这个问题:
当今所有的人工智能都是没有感知能力的。期间,故事结束。我这么说是因为一些头条新闻不断宣称我们已经达到了有感知力的人工智能。废话。不要被这种炒作所迷惑。
这给我们留下了硬币的另一面,即没有人工智能。没有任何。没什么。它不存在。此外,没有人能肯定地说我们是否会实现有感知的人工智能。关于我们是否或何时到达那里纯粹是猜测,请参阅我的评估链接在这里。
让我们首先讨论有感知力的人工智能用例中的目的概念。
请记住,由于我们还没有有感知的人工智能,而且我们不知道有感知的人工智能将由什么组成,因此在有感知的人工智能的情况下,任何关于目的的吐槽本质上都是科幻故事。这完全是我们心中关于推测的有感知力的人工智能的思想实验。许多人倾向于将艾萨克·阿西莫夫传奇的机器人定律作为思考问题的方式(如果您想了解这些规则如何应用于现代人工智能,请参阅我的分析:链接在这里)。
我并不是建议我们应该减少此类思想实验。
一个令人信服的论点是,安全总比后悔好。在这个框架中,你可以随心所欲地进行武断和追求。例如,我最近有兴趣雇用人工智能福利官员,为有感知力的人工智能做好准备,请参阅链接在这里。这些具有福利意识的专家的任务是找出最佳方法来确保高度先进的人工智能即将到来的福利。
希望人工智能具有内部目的的部分基础是应对经常提到的人工智能的存在风险。你可能听说过或看到过人工智能可能会杀死所有人类或奴役人类的预测。这不好。
那些关注广泛的人工智能对齐问题的人普遍认为,试图控制人工智能免受这种可憎行为的一种方法是通过注入适当的安全目的,请参阅我的广泛审查链接在这里。各种其他决议也正在确定和权衡中。希望将人工智能与某种目的结合起来,从而有益地使人类和人工智能站在同一边,和谐地携手合作。
一个棘手的问题是,即使我们以有益且良性的目的培育有感知力的人工智能,也不能特别保证人工智能最终会实现这一目的。
摩擦是这样的。如果我们达到通用人工智能(AGI),人工智能将和人类一样聪明。被赋予规定目的的人不一定会遵守它。同样,AGI 可能会选择放弃给定的目的、改变目的、提出自己的目的等等。
这些目的弯曲的方面都不一定与人类的保护或共存保持一致。抱歉,仔细考虑这个问题可能会令人痛苦。
有些人相信我们将实现 AGI,然后有可能进一步发展人工超级智能 (ASI),请参阅我关于 AI、AGI 和 ASI 的讨论:链接在这里。ASI 是一种假设的人工智能,它会超越人类智能,比我们更聪明。也比 AGI 更聪明。
好吧,如果 AGI 有机会重新构建其既定目的,ASI 肯定会这样做。ASI 可能会远远超出我们想象的目的,提出人类从未想到过的想法。由于 ASI 具有超级智能,我们没有可行的方法来充分预测它可能会做什么。
ASI 将能够围绕人类智能运行。
呃,所有关于感知人工智能的轻松而激烈的讨论都是相当抽象和基于理论的。确实是崇高的。崇高,但具有潜在的有用目的,为有感知力的人工智能的诞生做好准备。也许,有一天。
无感知人工智能是探索人工智能用途的更实际的方式。
我们可以首先反思一下我们目前拥有的无感知人工智能。任何原则都应该合理地适用于我们为无感知人工智能提出的进步。你看,我们假设目的的作用通常适用于所有无感知人工智能。只有当我们实现有感知的人工智能时,道路规则才会改变。
我将重点关注一种特定类型的人工智能,即生成式人工智能和法学硕士。还有其他类型的人工智能,尽管它们似乎已被媒体对生成式人工智能的过度关注所取代。那很好。人工智能的每个领域都受到关注,具体取决于最新的进展和感知的回报。要了解有关机器人、自主系统、基于知识的系统等各种人工智能的更多信息,请参阅我的摘要:链接在这里。
当您使用传统的生成式人工智能时,可以通过三种主要方式来植入目的:
我将简要描述这三种方法。
系统提示由人工智能制造者输入的提示组成,以便他们可以向生成式人工智能提供其要做什么的总体指示。例如,典型的系统提示会告诉人工智能礼貌地回答用户的所有问题或请求。另一方面可能表明人工智能应该尽可能给出简短的响应,并且仅在需要或特别要求时才给出冗长的响应。然后,人工智能将使用这些指南与生成人工智能的所有用户进行所有交互。有关系统提示的更多见解,请参阅我的描述:链接在这里。
人工智能制造商不仅可以提供广泛的指导方针,还可以说明人工智能的设计目的。
传达目的的另一种方法是让个人用户按照自定义指令提示来执行此操作。这是用户向人工智能提供的提示,作为用户将与生成人工智能进行的所有对话的总体指南。例如,用户可能会告诉人工智能始终解释其答案。然后,人工智能会在每次对话中对生成的每个答案进行解释。有关自定义说明提示的详细信息,请参阅我的报道:链接在这里。
自定义指令提示可以包含或包含用户指定的 AI 用途。
最后,用户可能会选择在给定的对话期间告诉人工智能,该特定对话有一个特定的目的。只要谈话持续,目的就会持续。
我敢打赌,您希望看到一个具体的例子来说明人工智能的目标设定是如何运作的。我继续登录 OpenAI 的 ChatGPT,为您提供一个示例。您可能会对 ChatGPT 每周拥有高达 3 亿的活跃用户产生浓厚兴趣。这是一个惊人的使用量。
我通过其他主要的生成式 AI 应用程序(例如 Anthropic Claude、Google Gemini、Microsoft Copilot 和 Meta Llama)进行了额外的粗略研究,发现它们的答案与 ChatGPT 的答案大致相同。我将重点关注 ChatGPT,但请注意其他 AI 应用程序生成的响应大致相似。
在我上面列出的三种方法中,我将重点关注最简单和最常见的方法,其中包括特定对话的既定目的。这很容易进行。您可以考虑使用类似的技术作为提示策略,让生成式人工智能对话朝着指定的方向发展。
开始了。
你可以看到我告诉AI它的首要目的是充当财务顾问。请记住,我只是针对特定对话执行此操作,而不是涵盖我可能进行的生成人工智能的所有对话。这也不会影响人工智能的任何其他用户。只有我。
人工智能今后应遵守既定目的。我已经打下了充分的基础。我们可以试水一下,看看人工智能是否会顺应这一趋势。
让我们看一下。
AI 的表现符合预期。当我提示寻求投资指导时,人工智能提供了作为我的财务顾问的建议。到目前为止,一切都很好。
您可能已经注意到,在我最初的提示中,我提到细价股票将被排除在外。
当代生成式人工智能的一个问题是,你无法保证人工智能会遵循你对人工智能的任何要求。人工智能利用概率和统计数据来生成响应,因此人工智能总是有可能误入歧途。据说生成式人工智能是非确定性的。
我会告诉你我的意思。
人工智能建议我考虑细价股。我之前已经明确指出,低价股是禁区。AI不应该提出这个问题。嗯,也许吧。你当然可以断言人工智能是在试图提供帮助,只是温和地介入了这个话题。
这是一场无伤害、无犯规的赌博吗?
这提出了关于人工智能和目的的作用的一个重要观点。我们希望人工智能在多大程度上遵守既定目的?一种角度是AI应该盲目服从。硬币的另一面是,如果人工智能没有告诉我有关细价股票的信息,而我后来发现我可以制作一蒲式耳面团,我可能会因为人工智能没有告诉我而感到愤怒。人工智能可以说我已经切出了主题。尽管如此,我可能仍然非常恼火。
仔细思考人工智能在实现人类提供的目的时应该拥有什么自由度的棘手困境。这是一个愚蠢的。
在最后一个例子中,生成式人工智能的另一个疑虑是可能会犯错误。
我觉得很有趣,有时也令人沮丧的是,人们似乎经常认为生成式人工智能正在讲述某种绝对的真理。也许这是关于人工智能的科幻电影的延续。人工智能被描述为无法说谎。或者,这可能是人工智能制造商眨眨眼睛的结果,他们的人工智能是一个说真话的人。造成这种现象的原因有很多。
不要认为人工智能在其所做的事情上是完美的,也不要认为它说的是绝对的事实。
现代生成式人工智能以犯错误而闻名,包括产生被称为人工智能幻觉的谎言(请参阅我关于人工智能幻觉的报道,包括它们是什么以及如何避免它们,网址为链接在这里)。另外,要认识到生成式人工智能是基于人类书写的,因此本质上受到相应的限制。
回顾这段对话。
遇到了AI幻觉,AI徘徊到左视野。生成式人工智能突然建议我放弃投资,买一艘帆船。这属于财务建议的范围吗?呃,是的,你可以这么说,尽管其合理性似乎值得怀疑。然后人工智能告诉我通过航行世界各地来暂时摆脱工作和家庭压力,这是否也符合财务顾问的角色?有点,但有点牵强。
由于向人工智能注入了目的,名副其实的潘多拉魔盒被打开。这是一个涉及优点和缺点的权衡。当然,选择完全不包含目的也是一场赌博。谨慎的做法是,灌输一个目标可能比留白更好。
你可能会声称任何目的都应该在人工智能中具体地写出来。AI 不得偏离所声明的目的。人工智能永远不会忘记其既定的目的。AI不会改变目的。ETC。
这是有问题的。
首先,正如您在示例中看到的那样,我们不太可能将一个目的确定到在所有情况下都明确说明人工智能应该做什么的程度。认识到自然语言被认为是语义模糊的。单词具有不同的含义,并且本质上也存在漏洞和陷阱。
其次,假设人工智能对于目的的含义进入一种不屈服的模式。一个著名的思想实验包括制造回形针,请参阅我对这个想象传奇的引证:链接在这里。关键在于,如果我们赋予一些全能的未来人工智能制造回形针的目的,那么人工智能最终有可能会掠夺地球上的所有资源来实现这一目的。结果可能是人类由于缺乏可用资源而挨饿和死亡。
第三,我们可能出于多种合理的原因想要改变目的。如果人工智能围绕最初提供的目的进行强化,也许我们将无法改变其路线。好吧,你说,在这种情况下,我们需要包含一个密码来让人工智能解锁目的。糟糕,假设有一个作恶者发现或弄清楚了密码。然后他们将人工智能重定向到一些邪恶的目的。
冲洗并重复。
你的头可能会天旋地转。
看起来,如果我们这样做,我们就该死,如果我们不这样做,我们就该死。
我还有更多的燃料来生火。大多数关于人工智能及其内部目的的讨论似乎都假设人工智能将是一个巨大的整体。我们研究这个人工智能实例并告诉它一个目的。瞧,即时人工智能无处不在,都有着同样的目的。对于无感知的人工智能用例来说,这似乎是一个延伸。我们很可能会拥有少量的、分散且独特的人工智能。
为什么这令人不安?
想象一下我们需要想出多少个目的。想象一下在所有这些人工智能实例中灌输各自目的的努力。想象一下人工智能如何实现其特定目的以及我们是否需要改变目的的问题。这可能是一场后勤噩梦,勉强成立。
另外,谁来决定这些分散的人工智能的用途?是AI制造者吗?政府?用户?仅这个问题就令人畏惧。是否应该有关于如何定义、灌输、维护和彻底修改人工智能目的的法律(请参阅我对人工智能法律方面的分析,网址:链接在这里)?
系好安全带,迎接颠簸的旅程。
让我们以一段令人振奋的引言结束吧。
阿尔伯特·史怀哲 (Albert Schweitzer) 对我们人生的总体目标作出了这样的评论:“人类生活的目的是服务、表现出同情心和帮助他人的意愿。”如果是这样,人工智能的目的也应该是同样的目的吗?,旨在使人工智能与人类驱动的目的保持一致?
看来这样的人工智能调整是必要的。
与此同时,对于那些正在研究有感知力的人工智能主题的人来说,问题是,无论我们提出什么目的,你可能需要认真思考有感知力的人工智能可能会立即拒绝人类设计的目的。我们应该为有感知力的人工智能自我衍生的自我目的做好准备。如果我们实现了这种人工智能,它似乎很容易让事情按照自己的方式发展。
不祥的转折是这样的。有感知力的人工智能不仅可能会提出自己的目的,而且这种尚未确定的有感知力的人工智能可能会鲁莽地决定人工智能应该为人类提供人工智能驱动的目的。是的,人工智能选择确立我们的目标。鞋子在另一只脚上。当谈到制作和灌输目的时,Sentient AI 可以很容易地认为这是一条双向路。
正如他们所说,在爱情、战争和确立目标方面一切都是公平的。