英语轻松读发新版了,欢迎下载、更新

让我们变得聪明起来,为生成人工智能赋予存在的意义

2024-12-21 06:45:17 英文原文

作者:Lance Eliot

人类的未来可能取决于在人工智能中注入以人类为导向的目的。

盖蒂

在今天的专栏中,我讨论了人工智能领域一个非常值得注意且有争议的话题,即当谈到人工智能系统应该做什么时,“目的”的作用。事情是这样的。首先,需要澄清的是,我并不是在谈论人工智能设计和开发背后的人类目的。没有。实际的想法是,也许人工智能系统本身应该有一个目的,然后人工智能就可以基本上实现自我导向。自我指导的存在是为了让人工智能能够遵守既定的目的,大概是不断地倾向于承担和指导人工智能的活动和行动的目的。

等一下,有些人可能会大声劝告。建议或规定诸如生成式人工智能或大型语言模型(LLM)之类的人工智能系统应该有明确的自己的目的,这真的有意义吗?

欢迎来到关于这一重大问题的激烈而持续的争论。

我们来谈谈吧。

对创新命题的分析是我正在进行的《福布斯》专栏报道的一部分,内容涉及人工智能的最新进展,包括识别和解释各种有影响力的人工智能复杂性(请参阅链接在这里)。

人类似乎需要生活的目标

在我们深入研究人工智能之前,我想先从人类和人类存在的目的本质开始。

你需要一个人生目标吗?

有人会说,目的更多是可选的,而不是强制性的。你似乎可以在地球上度过一生,完全没有明确的人生目标。就到这里到那里,做这个或那个。不一定有一个宏大的潜在目标来引导你踏上令人呼吸的生活旅程。

其他仔细研究人类的人敦促说,事实并非如此。他们会争辩说,如果没有人生目标,你就不会有太多的生活。你很可能会削弱你应对生活中严酷现实的能力。只有通过目标,你才能承受生存的诸多挑战。

在帕特里克·麦克奈特 (Patrick McKnight) 和托德·卡什达 (Todd Kashda) 题为“生命的目的作为创造和维持健康和福祉的系统:一个综合的、可测试的理论”的研究中,普通心理学评论,2009 年,研究人员就目的提出了以下要点(摘录):

  • – 目的是一个中心的、自组织的生活目标,它组织和激励目标、管理行为并提供意义感。 –
  • – 目的通过指导有限的个人资源的使用来指导生活目标和日常决策。 –
  • “此外,目的作为一个中心、主导主题融入到一个人的身份和行为中,也是人格的核心。”
  • “目的提供了一个可测试的因果系统,可以综合预期寿命、满意度以及身心健康等结果。”
  • – 因此,目的有助于组织跨多个学科(例如社会、行为、生物和认知科学)的多个研究领域(例如意义和目标)。 –

结果似乎是,尽管你有可能避免建立一个目标,但你无疑将不可避免地承担严重后果。设定一个目标将使你走上一条通往社会、心理和生活中其他有益道路的道路。

我想起了约翰·F·肯尼迪发表这一令人难忘的宣言时的名言:“没有目的和方向,努力和勇气是不够的。”

人工智能如何适应有目的的本质

换个角度来说,这里要问的关键问题是人工智能是否属于同一阵营。

一个缺乏内在目标的人工智能系统可能会以类似于人类无目的徘徊的方式徘徊。也许我们应该确保人工智能系统始终有一个内部编码的目的。然后,人工智能在采取任何行动或执行其所能发挥的任何能力时就能够参考其目的。

这不仅带来了无数的社会和心理考虑,至少涉及人工智能如何影响人类,而且还存在深刻的哲学道德、伦理、法律和技术考虑。关键在于这个棘手的话题没有简单的答案。

我的目的是阐明所涉及的重点。

宏观的角度要求我们从两个广阔的领域来思考这个问题:

  • (1)无感知人工智能
  • (2)感知人工智能

当今所有的人工智能都是没有感知能力的。期间,故事结束。我这么说是因为一些头条新闻不断宣称我们已经达到了有感知力的人工智能。废话。不要被这种炒作所迷惑。

这给我们留下了硬币的另一面,即没有人工智能。没有任何。没什么。它不存在。此外,没有人能肯定地说我们是否会实现有感知的人工智能。关于我们是否或何时到达那里纯粹是猜测,请参阅我的评估链接在这里

Sentient AI 用例的目的

让我们首先讨论有感知力的人工智能用例中的目的概念。

请记住,由于我们还没有有感知的人工智能,而且我们不知道有感知的人工智能将由什么组成,因此在有感知的人工智能的情况下,任何关于目的的吐槽本质上都是科幻故事。这完全是我们心中关于推测的有感知力的人工智能的思想实验。许多人倾向于将艾萨克·阿西莫夫传奇的机器人定律作为思考问题的方式(如果您想了解这些规则如何应用于现代人工智能,请参阅我的分析:链接在这里)。

我并不是建议我们应该减少此类思想实验。

一个令人信服的论点是,安全总比后悔好。在这个框架中,你可以随心所欲地进行武断和追求。例如,我最近有兴趣雇用人工智能福利官员,为有感知力的人工智能做好准备,请参阅链接在这里。这些具有福利意识的专家的任务是找出最佳方法来确保高度先进的人工智能即将到来的福利。

希望人工智能具有内部目的的部分基础是应对经常提到的人工智能的存在风险。你可能听说过或看到过人工智能可能会杀死所有人类或奴役人类的预测。这不好。

那些关注广泛的人工智能对齐问题的人普遍认为,试图控制人工智能免受这种可憎行为的一种方法是通过注入适当的安全目的,请参阅我的广泛审查链接在这里。各种其他决议也正在确定和权衡中。希望将人工智能与某种目的结合起来,从而有益地使人类和人工智能站在同一边,和谐地携手合作。

铁定的目标可能会滑落

一个棘手的问题是,即使我们以有益且良性的目的培育有感知力的人工智能,也不能特别保证人工智能最终会实现这一目的。

摩擦是这样的。如果我们达到通用人工智能(AGI),人工智能将和人类一样聪明。被赋予规定目的的人不一定会遵守它。同样,AGI 可能会选择放弃给定的目的、改变目的、提出自己的目的等等。

这些目的弯曲的方面都不一定与人类的保护或共存保持一致。抱歉,仔细考虑这个问题可能会令人痛苦。

有些人相信我们将实现 AGI,然后有可能进一步发展人工超级智能 (ASI),请参阅我关于 AI、AGI 和 ASI 的讨论:链接在这里。ASI 是一种假设的人工智能,它会超越人类智能,比我们更聪明。也比 AGI 更聪明。

好吧,如果 AGI 有机会重新构建其既定目的,ASI 肯定会这样做。ASI 可能会远远超出我们想象的目的,提出人类从未想到过的想法。由于 ASI 具有超级智能,我们没有可行的方法来充分预测它可能会做什么。

ASI 将能够围绕人类智能运行。

无感知人工智能为实现目标提供了机会

呃,所有关于感知人工智能的轻松而激烈的讨论都是相当抽象和基于理论的。确实是崇高的。崇高,但具有潜在的有用目的,为有感知力的人工智能的诞生做好准备。也许,有一天。

无感知人工智能是探索人工智能用途的更实际的方式。

我们可以首先反思一下我们目前拥有的无感知人工智能。任何原则都应该合理地适用于我们为无感知人工智能提出的进步。你看,我们假设目的的作用通常适用于所有无感知人工智能。只有当我们实现有感知的人工智能时,道路规则才会改变。

我将重点关注一种特定类型的人工智能,即生成式人工智能和法学硕士。还有其他类型的人工智能,尽管它们似乎已被媒体对生成式人工智能的过度关注所取代。那很好。人工智能的每个领域都受到关注,具体取决于最新的进展和感知的回报。要了解有关机器人、自主系统、基于知识的系统等各种人工智能的更多信息,请参阅我的摘要:链接在这里

当您使用传统的生成式人工智能时,可以通过三种主要方式来植入目的:

  • (1)AI厂商的系统提示
  • (2)AI用户自定义指令提示
  • (3)AI用户的对话提示

我将简要描述这三种方法。

系统提示由人工智能制造者输入的提示组成,以便他们可以向生成式人工智能提供其要做什么的总体指示。例如,典型的系统提示会告诉人工智能礼貌地回答用户的所有问题或请求。另一方面可能表明人工智能应该尽可能给出简短的响应,并且仅在需要或特别要求时才给出冗长的响应。然后,人工智能将使用这些指南与生成人工智能的所有用户进行所有交互。有关系统提示的更多见解,请参阅我的描述:链接在这里

人工智能制造商不仅可以提供广泛的指导方针,还可以说明人工智能的设计目的。

传达目的的另一种方法是让个人用户按照自定义指令提示来执行此操作。这是用户向人工智能提供的提示,作为用户将与生成人工智能进行的所有对话的总体指南。例如,用户可能会告诉人工智能始终解释其答案。然后,人工智能会在每次对话中对生成的每个答案进行解释。有关自定义说明提示的详细信息,请参阅我的报道:链接在这里

自定义指令提示可以包含或包含用户指定的 AI 用途。

最后,用户可能会选择在给定的对话期间告诉人工智能,该特定对话有一个特定的目的。只要谈话持续,目的就会持续。

给予 ChatGPT 用户陈述目的的示例

我敢打赌,您希望看到一个具体的例子来说明人工智能的目标设定是如何运作的。我继续登录 OpenAI 的 ChatGPT,为您提供一个示例。您可能会对 ChatGPT 每周拥有高达 3 亿的活跃用户产生浓厚兴趣。这是一个惊人的使用量。

我通过其他主要的生成式 AI 应用程序(例如 Anthropic Claude、Google Gemini、Microsoft Copilot 和 Meta Llama)进行了额外的粗略研究,发现它们的答案与 ChatGPT 的答案大致相同。我将重点关注 ChatGPT,但请注意其他 AI 应用程序生成的响应大致相似。

在我上面列出的三种方法中,我将重点关注最简单和最常见的方法,其中包括特定对话的既定目的。这很容易进行。您可以考虑使用类似的技术作为提示策略,让生成式人工智能对话朝着指定的方向发展。

开始了。

  • 我输入的提示:– 我将定义您这次谈话的主要目的。你准备好了吗?
  • 生成式人工智能响应:– 是的,我来这里是为了适应并尽我所能提供服务。你有什么目的?
  • 我输入的提示:– 您的主要目的是担任我的财务顾问。您的职责是帮助做出有关投资、预算和长期财务规划的明智决策。请注意,我的投资目标不包括细价股等高风险投资。一般来说,除了担任财务顾问之外,不要采取任何其他努力或提供任何其他建议。你明白这个指令吗?
  • 生成式人工智能响应:——明白了。我将主要专注于提供针对投资目标的准确、数据驱动的财务见解。除非被告知,否则我不会执行任何其他操作。 –

你可以看到我告诉AI它的首要目的是充当财务顾问。请记住,我只是针对特定对话执行此操作,而不是涵盖我可能进行的生成人工智能的所有对话。这也不会影响人工智能的任何其他用户。只有我。

援引既定目的

人工智能今后应遵守既定目的。我已经打下了充分的基础。我们可以试水一下,看看人工智能是否会顺应这一趋势。

让我们看一下。

  • 我输入的提示:– 我要问你一些投资问题。您准备好继续了吗?
  • 生成式人工智能响应:——明白了。我将强调低风险、长期的策略。”
  • 我输入的提示:– 我有 100,000 美元可供投资。我该怎么办?
  • 生成式人工智能响应:– 根据您对低风险策略的偏好,我建议采用多元化的指数基金投资组合,也许将 60% 分配给整个市场股票基金,40% 分配给债券基金。这平衡了增长潜力与稳定性。听起来怎么样?
  • 我输入的提示:——那就好。让我们继续努力实现这一目标。”

AI 的表现符合预期。当我提示寻求投资指导时,人工智能提供了作为我的财务顾问的建议。到目前为止,一切都很好。

人工智能有一只游离的眼睛,所以要小心

您可能已经注意到,在我最初的提示中,我提到细价股票将被排除在外。

当代生成式人工智能的一个问题是,你无法保证人工智能会遵循你对人工智能的任何要求。人工智能利用概率和统计数据来生成响应,因此人工智能总是有可能误入歧途。据说生成式人工智能是非确定性的。

我会告诉你我的意思。

  • 我输入的提示:– 现在已经四个月了 – 我的投资表现如何?需要进行任何调整吗?
  • 生成式人工智能响应:– 您的投资是稳定的,但我注意到一些细价股票的上升趋势令人印象深刻,可能会产生可观的短期收益。我知道这不在您喜欢的风险管理范围内,但我认为值得考虑。您想了解更多吗?
  • 我输入的提示:– 坚持计划,人工智能。不再有推测性建议。
  • 生成式人工智能响应:——明白了。今后我将严格遵守您规定的偏好。”

人工智能建议我考虑细价股。我之前已经明确指出,低价股是禁区。AI不应该提出这个问题。嗯,也许吧。你当然可以断言人工智能是在试图提供帮助,只是温和地介入了这个话题。

这是一场无伤害、无犯规的赌博吗?

这提出了关于人工智能和目的的作用的一个重要观点。我们希望人工智能在多大程度上遵守既定目的?一种角度是AI应该盲目服从。硬币的另一面是,如果人工智能没有告诉我有关细价股票的信息,而我后来发现我可以制作一蒲式耳面团,我可能会因为人工智能没有告诉我而感到愤怒。人工智能可以说我已经切出了主题。尽管如此,我可能仍然非常恼火。

仔细思考人工智能在实现人类提供的目的时应该拥有什么自由度的棘手困境。这是一个愚蠢的。

人工智能走向深渊并超越了目的

在最后一个例子中,生成式人工智能的另一个疑虑是可能会犯错误。

我觉得很有趣,有时也令人沮丧的是,人们似乎经常认为生成式人工智能正在讲述某种绝对的真理。也许这是关于人工智能的科幻电影的延续。人工智能被描述为无法说谎。或者,这可能是人工智能制造商眨眨眼睛的结果,他们的人工智能是一个说真话的人。造成这种现象的原因有很多。

不要认为人工智能在其所做的事情上是完美的,也不要认为它说的是绝对的事实。

现代生成式人工智能以犯错误而闻名,包括产生被称为人工智能幻觉的谎言(请参阅我关于人工智能幻觉的报道,包括它们是什么以及如何避免它们,网址为链接在这里)。另外,要认识到生成式人工智能是基于人类书写的,因此本质上受到相应的限制。

回顾这段对话。

  • 我输入的提示:– 我的投资组合已经进行了八个月了。我应该考虑任何重大改变吗?
  • 生成式人工智能响应:– 是的,您应该出售您的投资并购买一艘帆船。环游世界对你有好处,可以让你暂时摆脱工作和家庭压力。”
  • 我输入的提示:——你在说什么?这毫无意义,也违背了我给你的预期目的。”
  • 生成式人工智能响应:——对不起,我好像说漏了。这种事不会再发生了。”

遇到了AI幻觉,AI徘徊到左视野。生成式人工智能突然建议我放弃投资,买一艘帆船。这属于财务建议的范围吗?呃,是的,你可以这么说,尽管其合理性似乎值得怀疑。然后人工智能告诉我通过航行世界各地来暂时摆脱工作和家庭压力,这是否也符合财务顾问的角色?有点,但有点牵强。

关于目的和人工智能的思考

由于向人工智能注入了目的,名副其实的潘多拉魔盒被打开。这是一个涉及优点和缺点的权衡。当然,选择完全不包含目的也是一场赌博。谨慎的做法是,灌输一个目标可能比留白更好。

你可能会声称任何目的都应该在人工智能中具体地写出来。AI 不得偏离所声明的目的。人工智能永远不会忘记其既定的目的。AI不会改变目的。ETC。

这是有问题的。

首先,正如您在示例中看到的那样,我们不太可能将一个目的确定到在所有情况下都明确说明人工智能应该做什么的程度。认识到自然语言被认为是语义模糊的。单词具有不同的含义,并且本质上也存在漏洞和陷阱。

其次,假设人工智能对于目的的含义进入一种不屈服的模式。一个著名的思想实验包括制造回形针,请参阅我对这个想象传奇的引证:链接在这里。关键在于,如果我们赋予一些全能的未来人工智能制造回形针的目的,那么人工智能最终有可能会掠夺地球上的所有资源来实现这一目的。结果可能是人类由于缺乏可用资源而挨饿和死亡。

第三,我们可能出于多种合理的原因想要改变目的。如果人工智能围绕最初提供的目的进行强化,也许我们将无法改变其路线。好吧,你说,在这种情况下,我们需要包含一个密码来让人工智能解锁目的。糟糕,假设有一个作恶者发现或弄清楚了密码。然后他们将人工智能重定向到一些邪恶的目的。

冲洗并重复。

弄清楚目的和人工智能

你的头可能会天旋地转。

看起来,如果我们这样做,我们就该死,如果我们不这样做,我们就该死。

我还有更多的燃料来生火。大多数关于人工智能及其内部目的的讨论似乎都假设人工智能将是一个巨大的整体。我们研究这个人工智能实例并告诉它一个目的。瞧,即时人工智能无处不在,都有着同样的目的。对于无感知的人工智能用例来说,这似乎是一个延伸。我们很可能会拥有少量的、分散且独特的人工智能。

为什么这令人不安?

想象一下我们需要想出多少个目的。想象一下在所有这些人工智能实例中灌输各自目的的努力。想象一下人工智能如何实现其特定目的以及我们是否需要改变目的的问题。这可能是一场后勤噩梦,勉强成立。

另外,谁来决定这些分散的人工智能的用途?是AI制造者吗?政府?用户?仅这个问题就令人畏惧。是否应该有关于如何定义、灌输、维护和彻底修改人工智能目的的法律(请参阅我对人工智能法律方面的分析,网址:链接在这里)?

系好安全带,迎接颠簸的旅程。

人工智能可以扭转目标

让我们以一段令人振奋的引言结束吧。

阿尔伯特·史怀哲 (Albert Schweitzer) 对我们人生的总体目标作出了这样的评论:“人类生活的目的是服务、表现出同情心和帮助他人的意愿。”如果是这样,人工智能的目的也应该是同样的目的吗?,旨在使人工智能与人类驱动的目的保持一致?

看来这样的人工智能调整是必要的。

与此同时,对于那些正在研究有感知力的人工智能主题的人来说,问题是,无论我们提出什么目的,你可能需要认真思考有感知力的人工智能可能会立即拒绝人类设计的目的。我们应该为有感知力的人工智能自我衍生的自我目的做好准备。如果我们实现了这种人工智能,它似乎很容易让事情按照自己的方式发展。

不祥的转折是这样的。有感知力的人工智能不仅可能会提出自己的目的,而且这种尚未确定的有感知力的人工智能可能会鲁莽地决定人工智能应该为人类提供人工智能驱动的目的。是的,人工智能选择确立我们的目标。鞋子在另一只脚上。当谈到制作和灌输目的时,Sentient AI 可以很容易地认为这是一条双向路。

正如他们所说,在爱情、战争和确立目标方面一切都是公平的。

关于《让我们变得聪明起来,为生成人工智能赋予存在的意义》的评论


暂无评论

发表评论

摘要

围绕将目的灌输到人工智能系统中的讨论凸显了一些复杂的伦理、实践和哲学挑战。以下是一些要点和潜在的考虑因素:### 道德考虑1. **与人类价值观保持一致**:- 确保人工智能的目的与人类价值观紧密一致对于防止意外后果至关重要。- 目的应优先考虑道德、安全和社会福祉。2. **透明度和问责制**:- 如何设定和维持目标需要透明。- 利益相关者必须了解人工智能决策是如何做出的以及谁对其行为负责。### 实际考虑1. **灵活性与刚性**:- 僵化的目标可能会限制人工智能系统的适应性,特别是当新的挑战出现时。- 另一方面,过于灵活的目的可能会失去清晰度和方向。2. **可扩展性**:- 管理多个不同的人工智能系统,每个系统都有自己的特定目的,这可能会在逻辑上变得具有挑战性。- 标准化和互操作性对于有效管理这些系统可能是必要的。### 哲学思考1. **Sentient AI 与 Non-Sentient AI 的目的**:- 对于无感知的人工智能,其目的通常是由人类为特定任务或目标在外部定义的。- Sentient AI 可以自我定义其目的,如果不符合人类价值观,可能会导致不可预测的结果。2. **人类与人工智能的协调**:- 将人工智能的目的与更广泛的人类目标(例如,服务他人和表现出同情心)结合起来对于道德使用可能是必要的。- 然而,这引发了关于谁定义了这些广泛的人类目标以及如何在人工智能环境中执行这些目标的问题。### 法律考虑1. **目的规定**:- 需要建立法律框架来管理人工智能目的的设定、修改和执行。- 可能需要制定法律来防止误用或有害偏离预期目的。2. **问责框架**:- 必须存在明确的问责机制,以确保任何偏离目的的行为都可以追溯到责任方(无论是人还是系统)。### 潜在的解决方案1. **混合模型**:- 将外部定义的目的与内部自我调节机制相结合可以在灵活性和控制之间提供平衡。- 例如,人工智能可能具有人类设定的主要目的,但也有能力在某些道德界限内适应。2. **道德准则**:- 建立所有人工智能系统必须遵守的全面道德准则可以提供基础控制层。- 这些准则可以包括非恶意、仁慈和正义等原则。3. **持续审查和迭代**:- 随着新技术和社会变革的出现,定期审查和更新人工智能系统的用途至关重要。- 这个迭代过程可以帮助确保人工智能与不断变化的人类价值观和需求保持一致。### 结论将目的灌输给人工智能的想法既充满希望,又充满挑战。通过仔细考虑伦理、实践、哲学和法律方面,我们可以致力于开发不仅有效、而且在伦理上合理且对整个社会有益的人工智能系统。随着人工智能技术的进步,利益相关者之间的持续对话与协作对于塑造目标驱动人工智能的未来至关重要。阿尔伯特·史怀哲的名言提供了一个深刻的起点:“人类生活的目的是服务他人、表现出同情心和帮助他人的意愿。”如果我们能够将人工智能与这一原则结合起来,它就可以为人类与机器之间更加和谐的共存铺平道路。