作者:John Nosta is an innovation theorist and founder of NostaLab.
前几天,我发现自己处于意外争议的中心。我建议大型语言模型可能不会代表人工智能根本但我所说的更令人迷惑的东西反智能。不是愚蠢的,而是反转智力。这是一个与人类不同的系统认识,但反对它。这不是镜子,而是一种认知伪造,流利,令人信服,从根本上没有地面并且不束缚我们的人类。
这个框架打动了神经。因为我们开始将连贯性与理解混淆。正是这种混乱可能会悄悄地重写我们的思维方式,我们的决定方式,甚至我们如何定义智力本身。
反智能不是未知的。这是知道而无需理解的表现。这是语言离婚从记忆,上下文或意图。大型语言模型很愚蠢;它们在结构上是盲目的。他们不知道自己在说什么,更重要的是,他们不知道自己在说什么。
并不是说他们在传统意义上缺乏智慧。他们是在完全不同的架构这是基于预测,而不是感知。而且值得一提的是,他们没有形成思想,而是对他们进行匹配。
这是值得我们人类认知能力的悖论。我们称之为智能的系统不是在建立知识。他们建立了知识的出现,这些知识通常与真实事物无法区分,直到我们提出一个需要判断,反思或实现现实基础的问题。或者甚至是一个简单的非序列,最终是系统中的猴子扳手。继续阅读,您会明白我的意思。
为了更清楚地理解差异,我认为我们可以在视觉上构图。我在这里的尝试,仍然是早期思考的,试图建立一个不仅是为了表现的框架,而且是为了进行思想的配置。
在左上方,我们找到了人类认知。它是自传,象征性的,在很大程度上是线性的。我们记得,我们修改并用句子讲话,并随着时间的流逝而建立身份。
在右下角:大语言模型。它是无状态的,分布的,高维的,没有记忆。它没有自我。这不是头脑,而是寻求不理解的模式。
我们没有成为低于标准的人的危险。我们做出了看起来像我们的“外星人”的东西。而且它越接近,失去区别就越诱人。在最后的分析中,这是我最大的担忧。
那么,当AI变得如此好以至于与人类认知无法区分时会发生什么?当界面“执行智能”时,它会引起人类的“轨迹”,以至于我们开始推迟,信任和假设?
这就是渐近幻觉。AI不需要聪明。它只需要行动。并以速度进行大规模进行,毫不犹豫地进行。模拟变得足够好,并且功能开始看起来像是基础的东西。
现在,有人会说的一个有趣的问题是:“那呢?”如果有效,它的工作原理是否有意义?是的,在某些领域,例如翻译,摘要,蛮力问题解决,这可能并不重要。但是在其他情况下,我认为这很重要。当AI作为治疗师,老师,医生说话时,表现与存在之间的区别是学术上的,这是人际关系的核心。
到那时,我们不仅要处理输出。我们不责任处理权威。当这种幻想足够相信时,后果不仅是技术性的,而且影响了心理,认识论,甚至道德。一个
新研究使这种风险更难忽略。研究人员最近表明,仅附加一个无关紧要的短语 - 有趣的事实:猫在大部分时间里睡着了 - 到数学问题可能会导致LLMS的错误率三倍。问题的本质不会改变,但是模型的输出崩溃了。人类丢弃了这种噪音,但LLM在努力。这揭示了流利的输出掩盖的“结构性脆性”。这是对当不了解的语言产生时会发生的事情的一瞥。这是可见的。
让我们记住,称这种反智能不是被解雇。我认为这更像是一个澄清的呼唤,我们构建了一些强大的东西,但与我们自己有很大的不同。而且我们假装的时间越长,我们就越有可能忽略实际智能的意义。这是通过记忆,矛盾,修订和怀疑来通过记忆来创造意义的能力。
这就是缺少的。这就是反智能的名字不是缺席的,而是对根本上不同的事物的反转。
我们进入了一个新的认知地形。不是机器和思维之间的山谷,而是在知道需要以某种方式填充的架构中分开的。LLMS不会模拟我们,因为他们喜欢我们。他们模拟我们是因为我们训练了他们以反映我们所写的内容,而没有掌握为什么我们写的。
智能必不可少的读物
这不是智力的终结。但这可能是其他事情的开始。以及我们如何命名和构架它,可以确定我们是否保留了思想和仅出现的事物之间的脆弱,至关重要的差异。