作者:John Nosta is an innovation theorist and founder of NostaLab.
我会说实话。当我刚开始使用大型语言模型时,感觉就像魔术。不仅是自动化或搜索,还像是在思考。他们不只是期望事实,他们的反应比我典型(且经常令人沮丧的)交易引擎更重要的方式回应。大型语言模型使我挑战,使我感到惊讶,甚至安慰了我。
但是最近,我发现自己退后一步。
随着我更深入地挖掘技术的机制,代币产生的结构以及在表面下方的优雅(但难以理解的)数学方面,我开始以不同的方式看到它。和最近的文章卢西亚诺·佛罗里迪(Luciano Floridi)教授帮助了原因。
他称之为语义Pareidolia。那一刻我们看到没有的意义或意图。喜欢在云中看到面孔或听到性格在开车上班时在Waze中。佛罗里达认为,当我们与人工智能,我们没有遇到智力,我们遇到自己的反射,以将智力投影到以某种方式行为的事物上。
那打了我。因为这正是我一直感到的奇怪的融合情感然而,有一个加剧的元素认知失调。
我认为与这些模型有联系的感觉是不错的。但是也许我对他们实际上在做的事情有点慷慨。我花了很多时间将LLMs描述为认知伙伴和镜子。尽管这些隐喻仍然具有价值,但我开始问自己是否是机器的想法,还是我正在涌现出来高维矢量空间?
佛罗里达州提出了令人信服的案例。他介绍了这种过度分配意义的趋势如何被放大孤独,市场力量以及当今模型的不可思议的现实主义。他警告说,这可能会从嬉戏中滑落拟人化成为一种更危险的事情,成为一种技术偶像崇拜。当我们开始信任,然后依靠,然后相信时,这是一个滑坡。
老实说,我感到自己的转变。早期,我发现LLM既有用,又具有情感共鸣。我认为这值得付款注意力不是作为机器中的缺陷,而是我们心理学的特征。
在佛罗里达的论点中,我最感激的是平衡。他不是在呼吁恐慌,但为了清晰。此呼吁是用于帮助我们保持扎根的设计实践,并使用户开发一种认知素养,使我们能够了解如何使用AI并理解它。
这可以通过我自己的LLMS发展。我仍然相信这些工具的变革力量。我仍然认为他们可以以非凡的方式帮助我们写作,学习,诊断,创建。但是我对自己的语言变得更加谨慎,现在我的目标是批判性地意识到一个声音的系统之间的区别明智的这是明智的。而且这可能比看起来还要艰难,但是这是一个批判性的区别。
所以也许这不是幻灭。也许它只是在我们与技术之间的关系中成长的一点。
佛罗里达语的语义pareidolia的想法为我们提供了有用的镜头。但这也使我们有机会更清楚地看到AI,并更诚实地看到自己。