作者:by Max Planck Society
尽管人类专注于物体的含义,但人工智能侧重于视觉特征。
“这些尺寸代表了物体的各种特性,从纯粹的视觉方面(例如'round'或'白色',到更大的语义属性,例如“动物相关”或“与火相关”,其中包含视觉和语义元素的许多维度,都在人类认知和脑部脑库中解释了许多层面的视觉和语义元素。
“我们的结果揭示了一个重要的区别:尽管人类主要关注与含义的维度以及我们对其对其所了解的含义相关的ai模型,但更依赖于捕获视觉属性的维度,例如对象的形状或颜色。我们称AI中的“视觉偏见”称为AI中的这种现象。
“即使AI似乎像人类一样识别对象,它通常会使用根本不同的策略。这种差异很重要,因为这意味着AI系统尽管与人类的行为相似,但可能以完全不同的方式思考和做出决定,从而影响我们信任他们的程度。”
为了人类行为,科学家使用了约1,854个不同对象的约500万公开可用的奇数判断图像。例如,将向参与者展示吉他,大象和椅子的图像,并询问哪个对象不匹配。然后,科学家对多个深神经网络可以识别类似于人类参与者的图像,并为人类使用的相同对象的图像收集了相似性判断。
然后,他们应用了相同的算法来确定科学家所谓的“维度”的关键特征,这些图像是奇怪的决定的基础。通过处理类似于人类的神经网络,这确保了两者之间的直接可比性。
该论文的最后一篇作者马丁·赫巴特(Martin Hebart)解释说:“当我们第一次查看我们在深层神经网络中发现的维度时,我们认为它们实际上与人类发现的尺寸相似。”“但是,当我们开始仔细观察并将其与人类进行比较时,我们注意到了重要的差异。”
除了科学家确定的视觉偏见外,他们还使用了在神经网络分析中常见的可解释性技术来判断他们发现的尺寸是否确实有意义。例如,一个维度可能具有很多动物,并且可以称为“与动物有关”。
为了了解维度是否真正响应动物,科学家进行了多次测试:他们查看了神经网络使用的图像的哪些部分,它们产生了最适合各个维度的新图像,甚至操纵图像以删除某些维度。Mahner补充说:“所有这些严格的测试都表明了非常可解释的维度。”
“但是,当我们直接比较人类和深层神经网络之间的匹配维度时,我们发现网络只能真正近似这些维度。对于与动物相关的维度,不包括动物的许多图像,同样包括许多图像,其中包括许多动物。这是我们错过标准技术的东西。”
科学家希望未来的研究将采用类似的方法,将人类与人工智学直接比较人类,以更好地了解AI如何了解世界。Hebart说:“我们的研究提供了一种清晰可解释的方法来研究这些差异,这有助于我们更好地了解AI与人类相比如何处理信息。”“这些知识不仅可以帮助我们改善AI技术,还可以为您提供宝贵的见解人类认知。”
更多信息:Florian P. Mahner等人,深层神经网络与人类的代表性对齐的尺寸,自然机器智能(2025)。doi:10.1038/s42256-025-01041-7
引用:AI和人类的看法不同:含义与视觉特征(2025年,6月24日)检索2025年6月25日摘自https://techxplore.com/news/2025-06-ai-humans-differy-visual-features.html
该文档具有版权。除了为私人研究或研究目的的任何公平交易外,没有未经书面许可,可以复制部分。内容仅用于信息目的。