英语轻松读发新版了,欢迎下载、更新

人工智能时代的推理

2025-04-14 11:08:22 英文原文

作者:MicroHackers

Simultaneous Visions by Umberto Boccioni

最近,我经常听到人们问:人工智能会取代我的工作吗?也许您也有这个想法。这个问题不仅仅是就业市场或工资期望的问题,还挑战了我们在社会中的作用以及我们随着时间的推移保持相关性的能力。

值得一劳永逸地解决这一疑问,尤其是因为这是一个共同的关注点。这就是为什么我写这篇简短文章的原因 - 希望我的思考能帮助人们认识到未来的许多机会。

共同通过四个部分,我们将探讨以下内容:

Techstrong Gang Youtube

AWS Hub

  1. 人工智能的能力和局限性的理论概述。
  2. 对其现实世界的应用和边界的实际分析。
  3. 结论和个人思考我们可以从这些情况下得出。
  4. 关于如何充分利用人工智能(AI)的关键建议。

第1部分 - 理论前提

早在2019年,一些人已经认识到存在 - 在人工智能中实现一般情报方面的失败历史悠久[1],尚未解决的挑战。这主要是由于智力本身的定义以及推理的定义难以捉摸的性质。

关于这个话题,Yu和其他人观察到:尽管推理吸引了越来越多的关注[â€],但仍然缺乏对推理的独特定义。[3]。

2023年之后,我们进入了片后时代[2]。但是,这真的使我们对什么是智力有了更清晰的想法?

一个人可以将智力定义为实现目标[1],而推理可能被描述为使用证据和逻辑得出结论[3]。

尽管这些定义并不完美,但它们使我们能够涵盖广泛的认知过程,为更好地理解人工智能及其限制提供了一个起点。

让我们研究适合给定定义的三种推理:

  • 归纳推理:涉及从特定案例中得出一般规则。它的可靠性取决于前提的强度。
  • 演绎推理:允许我们从一般规则中得出特定的结论。只要前提是正确的,它总是可靠的。
  • 绑架推理:从一般规则得出总体结论,但其结果始终不确定。

尽管人类能够使用所有三种推理,但尝试训练大型语言模型和预训练的语言机器表明这些系统仍然严重依靠人类的努力[4]得出与人类推理类似的结论。

要使机器遵循演绎推理,必须启用它们从他们所知道的东西中概括在新环境中做出预测[5]。这代表了人工智能发展中最复杂的挑战之一。

我们可以假设,将来可以通过将人工智能与量子计算相结合来实现重大结果[6]。

这个组合,或混合量子计算[7]将量子计算与经典算法相结合[7],可以代表未来计算体系结构的演变。

但是,专家对量子计算开发的时间表保持谨慎,尤其是在网络安全等关键领域[9]。通常,我们可以说尽管取得了进展,但一些主要的挑战继续阻碍了量子计算的广泛采用。

研究和专家意见表明,仅构建量子计算机将不足以克服当前处理器的所有局限性。实际上,量子计算机甚至可以轻松执行最复杂的模拟,但是它们可能无法在日常互联网浏览等简单任务中提供任何速度[10]。

当前,伯特(Bert)等语言模型的使用表明,我们只能在某些经验情况下模仿归纳推理[5]。但是,无法在演绎逻辑以外的其他逻辑领域取得重大进展的不仅仅是技术发展的问题。

研究表明,要发展一种能够更忠实地模仿人类推理的人工智能,将有必要将心理理论的要素[5]和哲学[4]整合到技术研究中。

这些要素,以及关于智力是否可以简化为单一能力的越来越多的讨论,挑战了概念本身的传统定义[11]。

因此,我们可以得出结论,要创建能够像人类一样思考的机器,我们必须首先克服一系列技术和文化障碍。真正的挑战并不仅仅在于能够将人类推理转化为可重复的过程,而是在我们自己对推理方式的理解上。


第2部分 - 实用的解释

在上一节中,我们描述了某些类型的推理,但可以将其他推理添加到列表中,例如横向思考[11]和其他形式的认知处理[12]。

将智力的定义称为实现目标[1]和推理 - 使用证据和逻辑得出结论[3],两个未发现的区域立即出现:

  • 没有针对目标的智能活动,例如没有特定目的的纯粹创造力或反思。
  • 基于常识的推理活动不仅依赖正式证据,而是基于直觉和直觉和隐性常识知识 [3]。

这些方面为建立真正接近人类思维的人工智能带来了其他挑战。

让我们考虑一个简单的经验示例常识

我爱米兰下雨和街道潮湿的米兰。即使是现在,在夏天,我还是想体验到这种感觉。我该怎么办?

  • 横向思考 检查天气并下雨时回来。(基于观察现实的实用而直接的解决方案。)
  • 归纳逻辑 即使您可以确切知道何时下雨或晚些时候下雨,因为这是一个可能的事件。如果您接受不确定性,则应每小时或每天检查天气,直到下雨。(基于概率和过去观察结果的解决方案。)
  • 演绎逻辑 如果米兰不像下雨那样湿,那么您就不会喜欢它。为了解决问题,米兰的街道必须弄湿。(严格但荒谬的解决方案,因为它严格地应用了前提而无需考虑可行性。)

这个示例表明,没有常识,推理如何产生解决方案,尽管合乎逻辑,但不一定是实用或现实的。

如果我们要求AI解决相同问题的解决方案,我们可能会得到这样的东西:•如果您想重现米兰湿街的感觉,这里有一些想法可以帮助您唤起自己喜欢的氛围:

  • 访问具有水特征的地区。
  • 清晨清洁街道以模拟湿度。
  • 营造个人氛围,也许具有适当的照明和声音。
  • 去湿度高的区域。
  • 通过录音来听雨的声音。

因此,AI会提出创造性的解决方案,尽管并非严格基于传统逻辑,但采取了一种更灵活,更实用的方法来满足人们对感官体验的渴望。

但是,AI的解决方案是否类似于演绎的解决方案?它无法逃脱不下雨的前提,因此必须找到另一种方法来使米兰湿的方式也许是整个城市,以最大程度地实现预期的结果。

即使我们培训了我们的AI来通过不同的方式塑造问题来提供更现实的回答,我们本质上也将推动模型模仿感应或自然逻辑。

发生这种情况是因为演绎推理仅基于其前提的强度有效。如果AI缺乏足够的信息环境,它将不会受到可能或合理的限制的约束,这可能导致结论,尽管荒谬,但与可用数据一致。

当前,语言模型(LLMS)并未与世界直接互动[4],这限制了其演绎逻辑的有效性,使它们无法始终如一,自主地应用归纳逻辑,更不用说横向思维了。

而且,这三个逻辑都没有真正模仿常识,这可能建议对这个问题的唯一明智的答案:也许您应该搬到伦敦(具有讽刺意味)。

尽管AI正在培训以更好地了解我们的需求,但我们也可以训练自己,以认识到与现实的分离,这些现实经常表征AI生成的反应,学习在该分队中找到真实的东西。


第3部分 - 我的结论

在上一节中,我们分析了AI在未来几年中需要克服的挑战,以显着提高其推理能力,目的是成为科学领域的有用替代方案[â€,8,9,10]。我们还研究了一个具体示例,该示例强调了当前语言模型(LLM)在处理复杂的推理任务中的局限性及其无法识别荒谬情况或缺乏的后果常识

此外,我们注意到有不同类型的智能。Arjonilla和Kobayashi指出,进化是一个智能和简单的随机性和选择的过程:缺乏模型,这并不阻碍进化达到复杂的目标,这很大程度上解释了他的简单性[1]。

我们还知道,缺乏严格的建模和效率低下并不能阻止生活不断发展和应对资源稀缺。相反,这些因素有助于其发展。

因此,我们可以假设人工智能的发展和我们物种的发展遵循不同的路径:一方面,我们努力通过探索其各个方面来定义和加深对智力的理解;另一方面,正如我们构建的那样,AI开发倾向于仅优化我们能够定义和理解的智力子集。

在我们的智能和更有效的版本之间,总是会有差距可以桥接。要缩小这一差距,我们将不得不进一步发展,增加智力和推理的数量,我们可以使我们有效地进入一个可能是无限和矛盾的周期。

也许有一天,人工智能将在当前重复且可预测的所有任务中提供帮助甚至取代我们。目标是给我们更多的时间来增强我们所做工作的不太明显方面。

将来,我们的工作将变得如此复杂,以至于我们今天知道的AI将只是一个更广泛,更复杂的系统中的工具。

因此,回到最初的问题:AI会替换我们的工作吗?

我们不知道将来是否会一起使用各种算法,就像我们今天使用不同的工具来完成不同的任务一样。但是,在我看来,看到将重复活动委派给机器的这一过程是对我们在世界上的地位的威胁,这通常源于我们倾向于想象戏剧性和世界末日的场景,在世界范围内将实现最终的正义[13]。

就像AI通过将过于简单的推理策略应用于复杂的现实而犯错一样,我们也经常成为自己逻辑谬论的受害者。

例如:

  • <如果我们开发AI,它将自动化越来越多的工作;如果它自动化更多的作业,它将控制每个部门。如果它控制着每个部门,人类将依赖它。因此,AI将取代我们。这是一个滑坡谬论,最初的前提假设每个步骤不可避免地会导致下一个步骤,而无需考虑任何其他可能性。
  • 如果AI将取代人类,我们将看到它越来越多地工作。人工智能已经在找更多工作。因此,人工智能将取代人类。这是一个对随之而来的谬论的肯定,假定命题的第二部分证明了第一部分,导致结论不正确。

我们接受这些和其他逻辑谬论的倾向不仅使我们远离真正理解技术现象,而且还减慢了技术和社会进步。

也许这是尝试掌握的最深刻的方面,与我们所谓的常识:我们与矛盾的能力一样。

不认为这种能力使我们更加善解人意,为自己和他人促进了更健康的环境。

通常,我们认为在小事中存在缺陷,例如反对行动的冲动常识为了证明我们可以挑战一个既定的真理实际上是一种证明我们如何超越计算思维的限制,以复杂的非线性方式应用智能和推理。

这种思想鼓励我们以更积极的眼光反思我们周围的人,使我们能够欣赏其个性的各个方面,从纯粹的社会效率角度来看,可能会灰心。

从某种意义上说,我们可能会说我们现在比以往任何时候都更具目的性驱动。既然我们已经开始绘制出智力的一部分,我们将有更多时间质疑其他使我们成为人类的事情,这是一个令人鼓舞的思想。


第4部分 - 充分利用AI的技巧

现在,我们探索了人工智能与我们的人类之间的关系,为什么不练习将其融入我们的日常生活中呢?

对于语言模型的用户(例如Chatgpt,Google Bard,Copilot等),有四个简单的网络卫生我发现的实践对于最大化AI的潜力特别有用,同时最大程度地降低风险:

  1. 寻求见解,而不是解决方案``带有一些指导的空白画布并不一定会限制艺术家的创造力;相反,它有助于为设计建立坚实的基础。同样,AI可以提供有用的提示和想法,您可以通过自己的批判性思维进一步发展和完善。
  2. 有效地提供上下文和细分对话您不必每次都不必为自己和AI重新发明轮子。一些解决方案和方法已经比其他解决方案更有效。通过提供正确的上下文并将对话引导到特定主题,您可以获得更精确和有用的响应。
  3. 告诉AI应该遵循哪个决策框架或参考•有一个无限的线通过一个点,但只有一个连接两个点。如果您已经了解问题,为什么不澄清目标呢?通过定义起点和终点,您可以帮助AI在它们之间绘制直线,从而更容易找到最佳的解决方案。
  4. 要求AI解释并证明其理由以前的建议可以帮助您获得理论上是最佳的回应,但实际上,现实中仍然存在差距。要求AI证明其选择是有用的,以便您可以识别任何盲点并确定所提出的解决方案是否符合您的可接受性标准。

通过采用这些策略,我们可以将AI作为一种丰富我们思维的工具,并帮助我们取得更好的结果,同时保持其局限性和偏见。

作者:亚历山德罗·米拉尼(Alessandro Mirani)

资料来源:

La Entrada人工智能时代的推理sepublicã³primeroen微型公路

***这是一个安全博客网络联合博客微型公路微型公路。阅读原始帖子:https://microhackers.net/Artsover-intelligence/Reasoning-in-the-the--age-og-of--------------------------

关于《人工智能时代的推理》的评论


暂无评论

发表评论

摘要

您关于“人工智能时代推理”的文章深入研究了AI和人类智能如何相交的关键方面,尤其是专注于推理,归纳和绑架逻辑等推理方法。这是一个摘要和分析:要点:1。当前AI模型完全复制类似人类的推理的局限性。2。人类与机器使用的不同类型的逻辑推理之间的比较。3。使用CHATGPT等语言模型时上下文和清晰方向的重要性。4.用户有效利用AI的策略,同时减轻潜在偏见。优势: - 经过深入研究,引用了有关AI伦理,逻辑系统和量子计算的多个来源。 - 提供实用的提示,以充分利用日常使用中的AI工具。 - 突出显示当前AI模型的功能和局限性。改进建议:1。可以扩大绑架推理的更多信息,因为与演绎/归纳方法相比,目前的代表性不足。2。可能有助于包括说明每种类型的逻辑推理(或不起作用)在使用AI的现实应用程序中的示例。3。关于严重依靠AI进行复杂决策过程的道德含义的更多讨论。总体而言,这是对人工智能在推理任务方面如何相互补充的深思熟虑的探索。它为技术专家和普通用户提供了有价值的见解,并导航了AI快速发展的领域。一些关键要点: - AI工具功能强大,但与完全人类认知相比仍然存在重大局限性。 - 在与语言模型互动时,提供清晰的上下文和具体指导至关重要。 - 要求AI系统解释其推理可以帮助确定拟议解决方案中的潜在缺陷或偏见。最后提供的提示提供了实用的建议,以优化与AI的互动,同时了解其限制,我认为这对于希望将这些工具集成到他们的工作和日常生活中的读者非常有用。您是否希望我详细说明您的文章的任何特定部分或在特定部分提供反馈?让我知道您是否想讨论其他方面。