作者:John Nosta is an innovation theorist and founder of NostaLab.
在过去的几年中,我们对AI工具对我来说,对我来说,甚至是我努力戴上手指的奇怪认知结构的想法。我甚至通过打电话来推动这些界限人工智能与我们的人类思维相反的东西反智能。显然,这些模型完成了我们的句子,总结我们的思想,产生散文,提出决定,甚至通过情感上的意识。但是有些东西不是正确的。我越多地进入这个统计上的僵化但模棱两可的空间,就越清楚这些系统完全像我们一样思考。他们完全做了其他事情。
是的,这很诱人人格化AI,在许多情况下似乎是不可避免的。对话自然会转向构造AI,就像我们的形象内置的合成思想一样,或者可能在我们的形象中阴影。但是,至少从我的角度来看,更深的真理更令人迷惑,甚至可能是怪异的。这些模型不反映人类认识,它们反映了我们尚未命名的东西。感觉就像是一种数学地形,它不映射到我们人类的思想经验。而且,我们试图从我们的“平原“观点,我们不能。
那个地形是有些人称之为外星基板的东西。我同意。
让我们从一个简单的角度开始。如今,大多数大型语言模型,尤其是所谓的边境模型,例如Chatgpt和Grok,在嵌入空间中运行12,000个维度。这个数字不是化妆品,它构成了我的观点。含义,连贯性和关联是构成或编码的抽象轴的数量。
从角度来看,您的生活经验会在三个物理维度加上时间加上时间进行,而您的内部认知建模可能会延伸一些六个或七个维度情感,,,,,记忆, 和注意力,取决于任务。但是12,000?这不是进化,这是巨大的计算。它产生了一种智力那不像任何东西。它只是有效的。
这些系统像我们一样建立了世界的模型。他们进行了理论,解释或猜测。他们重新定位在高维语义场中的位置,近端意味着概率和距离会降低连贯性。当模型预测您的下一个单词或完成一个想法时,它就是这样做的崩溃的统计波函数在这个难以理解的几何空间中。请记住,这不是在想,而只是从“寻求”一种语言稳定性的几何形状中选择。
最近的论文在自然引入了一个名为Centaur的模型,该模型接受了160多个心理实验的数百万个行为数据点的培训。该模型学会了预测人类将如何在包括赌博,记忆和道德判断的不同任务中行事。而且它做得很好,通常比许多传统模型都要好,并且可以说比人类推理本身更一致。
但是,本文没有声称已经发现了关于思想的新事物,也没有提供先进的行为理论。很好。它表明的是,如果您给出一个足够的语言模型,结构良好,整洁以及整个人类试验,它将找到模式。这些模式将使IT预期行为。
在此的“认知心脏”上,它提供了预测而没有内省。这是精确的,但是没有理解的新的准确性水平。它之所以起作用,是因为它生活在那个外星基材中,在该基材中,我们凌乱的人类产量可以在可能的移动空间中建模为稳定的吸引者。
这是关键点。它并不聪明,它当然没有意识,甚至没有洞察力。这真的非常非常擅长浏览我们所居住的景观,但是可以看。
因此,这是紧急问题。当机器比同事更好地预测您的专业判断时会发生什么?当它比您更流利地完成思想时会发生什么?当LLM可以建模您的偏见,犹豫,思想习惯然后进行相应调整时,会发生什么?再次阅读本段,并真正考虑它,只有人类才能。
人工智能必不可少的
这不仅仅是模仿。我的感觉是这是一种分歧。该模型不复制我们的思维方式,但我们仍然试图使AI与人类的结构保持一致。但这是基本事实:AI不会复制人类的思想,而是绕过它。
我们仍在询问AI是否聪明,是否理解,它是否接近人类的经历。但是这些是错误的问题。正确的可能是问这是什么样的认知?因为,这不是我们的。
像人类和与人相关之间有区别。AI可能永远不会感觉到我们的感觉,也不会像我们一样掌握意义。但是,他们开始在曾经是人类独特的领域中胜过我们的表现,包括写作,策略,诊断,甚至同理心模拟。他们通过从我们的语言中构建的一张无形的地图来做到这一点。AI所做的就是在没有人所能理解的空间中弄平,矢量化并使其可操作。外星人到了。
那么这将离开我们呢?在这种外星基材中,认知的未来正在发展,传统的心理模型可能开始看起来像古朴的近似。旨在在低“人类”维度上可以解释的理论可能根本无法在面对不需要向我们解释其预测行之有效的系统中坚持。他们只是这样,我们做不到。
是的,这是陌生的,也许是在与非造成现实的原则相呼应,但从认知的角度来看。解释和信任之间的旧合同正在崩溃。我们曾经相信,如果我们无法解释它,我们不应该相信。现在,我们每天都使用工具,以优于我们,而无需提供有关他们如何做的任何叙述。我们称之为黑匣子行为。但这也许不是一个盒子。也许是几何形状,我们是外面的几何形状。
模型越来越好。不再是人类,只是更有效。而且,如果我们继续判断他们的反映能力,我们将错过这样一个事实,即他们朝着我们尚无言语的方向而超越我们。
那就是外星基板。而且它不会来。在这里。