作者:MicroHackers
最近,我经常听到人们问:人工智能会取代我的工作吗?也许您也有这个想法。这个问题不仅仅是就业市场或工资期望的问题,还挑战了我们在社会中的作用以及我们随着时间的推移保持相关性的能力。
值得一劳永逸地解决这一疑问,尤其是因为这是一个共同的关注点。这就是为什么我写这篇简短文章的原因 - 希望我的思考能帮助人们认识到未来的许多机会。
共同通过四个部分,我们将探讨以下内容:
早在2019年,一些人已经认识到存在 - 在人工智能中实现一般情报方面的失败历史悠久[1],尚未解决的挑战。这主要是由于智力本身的定义以及推理的定义难以捉摸的性质。
关于这个话题,Yu和其他人观察到:尽管推理吸引了越来越多的关注[â€],但仍然缺乏对推理的独特定义。[3]。
2023年之后,我们进入了片后时代[2]。但是,这真的使我们对什么是智力有了更清晰的想法?
一个人可以将智力定义为实现目标[1],而推理可能被描述为使用证据和逻辑得出结论[3]。
尽管这些定义并不完美,但它们使我们能够涵盖广泛的认知过程,为更好地理解人工智能及其限制提供了一个起点。
让我们研究适合给定定义的三种推理:
尽管人类能够使用所有三种推理,但尝试训练大型语言模型和预训练的语言机器表明这些系统仍然严重依靠人类的努力[4]得出与人类推理类似的结论。
要使机器遵循演绎推理,必须启用它们从他们所知道的东西中概括在新环境中做出预测[5]。这代表了人工智能发展中最复杂的挑战之一。
我们可以假设,将来可以通过将人工智能与量子计算相结合来实现重大结果[6]。
这个组合,或混合量子计算[7]将量子计算与经典算法相结合[7],可以代表未来计算体系结构的演变。
但是,专家对量子计算开发的时间表保持谨慎,尤其是在网络安全等关键领域[9]。通常,我们可以说尽管取得了进展,但一些主要的挑战继续阻碍了量子计算的广泛采用。
研究和专家意见表明,仅构建量子计算机将不足以克服当前处理器的所有局限性。实际上,量子计算机甚至可以轻松执行最复杂的模拟,但是它们可能无法在日常互联网浏览等简单任务中提供任何速度[10]。
当前,伯特(Bert)等语言模型的使用表明,我们只能在某些经验情况下模仿归纳推理[5]。但是,无法在演绎逻辑以外的其他逻辑领域取得重大进展的不仅仅是技术发展的问题。
研究表明,要发展一种能够更忠实地模仿人类推理的人工智能,将有必要将心理理论的要素[5]和哲学[4]整合到技术研究中。
这些要素,以及关于智力是否可以简化为单一能力的越来越多的讨论,挑战了概念本身的传统定义[11]。
因此,我们可以得出结论,要创建能够像人类一样思考的机器,我们必须首先克服一系列技术和文化障碍。真正的挑战并不仅仅在于能够将人类推理转化为可重复的过程,而是在我们自己对推理方式的理解上。
在上一节中,我们描述了某些类型的推理,但可以将其他推理添加到列表中,例如横向思考[11]和其他形式的认知处理[12]。
将智力的定义称为实现目标[1]和推理 - 使用证据和逻辑得出结论[3],两个未发现的区域立即出现:
这些方面为建立真正接近人类思维的人工智能带来了其他挑战。
让我们考虑一个简单的经验示例常识:
我爱米兰下雨和街道潮湿的米兰。即使是现在,在夏天,我还是想体验到这种感觉。我该怎么办?
这个示例表明,没有常识,推理如何产生解决方案,尽管合乎逻辑,但不一定是实用或现实的。
如果我们要求AI解决相同问题的解决方案,我们可能会得到这样的东西:•如果您想重现米兰湿街的感觉,这里有一些想法可以帮助您唤起自己喜欢的氛围:
因此,AI会提出创造性的解决方案,尽管并非严格基于传统逻辑,但采取了一种更灵活,更实用的方法来满足人们对感官体验的渴望。
但是,AI的解决方案是否类似于演绎的解决方案?它无法逃脱不下雨的前提,因此必须找到另一种方法来使米兰湿的方式也许是整个城市,以最大程度地实现预期的结果。
即使我们培训了我们的AI来通过不同的方式塑造问题来提供更现实的回答,我们本质上也将推动模型模仿感应或自然逻辑。
发生这种情况是因为演绎推理仅基于其前提的强度有效。如果AI缺乏足够的信息环境,它将不会受到可能或合理的限制的约束,这可能导致结论,尽管荒谬,但与可用数据一致。
当前,语言模型(LLMS)并未与世界直接互动[4],这限制了其演绎逻辑的有效性,使它们无法始终如一,自主地应用归纳逻辑,更不用说横向思维了。
而且,这三个逻辑都没有真正模仿常识,这可能建议对这个问题的唯一明智的答案:也许您应该搬到伦敦(具有讽刺意味)。
尽管AI正在培训以更好地了解我们的需求,但我们也可以训练自己,以认识到与现实的分离,这些现实经常表征AI生成的反应,学习在该分队中找到真实的东西。
在上一节中,我们分析了AI在未来几年中需要克服的挑战,以显着提高其推理能力,目的是成为科学领域的有用替代方案[â€,8,9,10]。我们还研究了一个具体示例,该示例强调了当前语言模型(LLM)在处理复杂的推理任务中的局限性及其无法识别荒谬情况或缺乏的后果常识。
此外,我们注意到有不同类型的智能。Arjonilla和Kobayashi指出,进化是一个智能和简单的随机性和选择的过程:缺乏模型,这并不阻碍进化达到复杂的目标,这很大程度上解释了他的简单性[1]。
我们还知道,缺乏严格的建模和效率低下并不能阻止生活不断发展和应对资源稀缺。相反,这些因素有助于其发展。
因此,我们可以假设人工智能的发展和我们物种的发展遵循不同的路径:一方面,我们努力通过探索其各个方面来定义和加深对智力的理解;另一方面,正如我们构建的那样,AI开发倾向于仅优化我们能够定义和理解的智力子集。
在我们的智能和更有效的版本之间,总是会有差距可以桥接。要缩小这一差距,我们将不得不进一步发展,增加智力和推理的数量,我们可以使我们有效地进入一个可能是无限和矛盾的周期。
也许有一天,人工智能将在当前重复且可预测的所有任务中提供帮助甚至取代我们。目标是给我们更多的时间来增强我们所做工作的不太明显方面。
将来,我们的工作将变得如此复杂,以至于我们今天知道的AI将只是一个更广泛,更复杂的系统中的工具。
我们不知道将来是否会一起使用各种算法,就像我们今天使用不同的工具来完成不同的任务一样。但是,在我看来,看到将重复活动委派给机器的这一过程是对我们在世界上的地位的威胁,这通常源于我们倾向于想象戏剧性和世界末日的场景,在世界范围内将实现最终的正义[13]。
就像AI通过将过于简单的推理策略应用于复杂的现实而犯错一样,我们也经常成为自己逻辑谬论的受害者。
例如:
我们接受这些和其他逻辑谬论的倾向不仅使我们远离真正理解技术现象,而且还减慢了技术和社会进步。
也许这是尝试掌握的最深刻的方面,与我们所谓的常识:我们与矛盾的能力一样。
不认为这种能力使我们更加善解人意,为自己和他人促进了更健康的环境。
通常,我们认为在小事中存在缺陷,例如反对行动的冲动常识为了证明我们可以挑战一个既定的真理实际上是一种证明我们如何超越计算思维的限制,以复杂的非线性方式应用智能和推理。
这种思想鼓励我们以更积极的眼光反思我们周围的人,使我们能够欣赏其个性的各个方面,从纯粹的社会效率角度来看,可能会灰心。
从某种意义上说,我们可能会说我们现在比以往任何时候都更具目的性驱动。既然我们已经开始绘制出智力的一部分,我们将有更多时间质疑其他使我们成为人类的事情,这是一个令人鼓舞的思想。
现在,我们探索了人工智能与我们的人类之间的关系,为什么不练习将其融入我们的日常生活中呢?
对于语言模型的用户(例如Chatgpt,Google Bard,Copilot等),有四个简单的网络卫生我发现的实践对于最大化AI的潜力特别有用,同时最大程度地降低风险:
通过采用这些策略,我们可以将AI作为一种丰富我们思维的工具,并帮助我们取得更好的结果,同时保持其局限性和偏见。
作者:亚历山德罗·米拉尼(Alessandro Mirani)
La Entrada人工智能时代的推理sepublicã³primeroen微型公路。
***这是一个安全博客网络联合博客微型公路由微型公路。阅读原始帖子:https://microhackers.net/Artsover-intelligence/Reasoning-in-the-the--age-og-of--------------------------