英语轻松读发新版了,欢迎下载、更新

科学家警告说,大型语言模型不适合现实世界使用——即使是微小的变化也会导致他们的世界模型崩溃

2024-11-16 13:01:00 英文原文

作者:Roland Moore-ColyerSocial Links Navigation

Neural network 3D illustration. Big data and cybersecurity. Data stream. Global database and artificial intelligence. Bright, colorful background with bokeh effect.
支持法学硕士的神经网络可能并不像看起来那么聪明。 (图片来源:Yurchanka Siarhei/Shutterstock)

生成式人工智能(人工智能)系统也许能够产生一些令人大开眼界的结果,但新的研究表明它们对世界和真实规则没有连贯的理解。

一项新研究麻省理工学院、哈佛大学和康奈尔大学的科学家发表在 arXiv 预印本数据库上发现,大型语言模型 (LLM),例如GPT-4或人择的克劳德 3 作品,无法生成准确代表现实世界的底层模型。

例如,当法学硕士负责在纽约市提供路线规划驾驶路线时,法学硕士的准确率接近 100%。但当科学家提取这些地图时,所使用的底层地图充满了不存在的街道和路线。

研究人员发现,当指令中添加意想不到的变化(例如绕道和封闭街道)时,法学硕士给出的指令的准确性会直线下降。在某些情况下,它导致彻底失败。因此,人们担心部署在现实世界中的人工智能系统(例如无人驾驶汽车)在遇到动态环境或任务时可能会出现故障。

有关的:人工智能“会阻碍独立自我创造所需的技能”:依赖算法可能会在你没有意识到的情况下重塑你的整个身份

“一个希望是,因为法学硕士可以用语言完成所有这些令人惊奇的事情,也许我们也可以在科学的其他领域使用这些相同的工具。但是,如果我们想要,法学硕士是否正在学习连贯的世界模型这一问题非常重要使用这些技术来取得新发现,”资深作者说阿什什·兰巴坎麻省理工学院信息与决策系统实验室 (LIDS) 的经济学助理教授和首席研究员,陈述

棘手的变形金刚

生成式人工智能的关键在于法学硕士并行学习大量数据和参数的能力。为了做到这一点,他们依靠变压器型号,它们是处理数据并实现法学硕士自学方面的底层神经网络集。这个过程创建了一个所谓的“世界模型”,经过训练的法学硕士可以使用该模型来推断答案并生成查询和任务的输出。

将世界上最迷人的发现直接发送到您的收件箱。

世界模型的一种理论上的用途是从城市中的出租车行程中获取数据来生成地图,而无需像当前导航工具所要求的那样煞费苦心地绘制每条路线。但如果地图不准确,路线偏差就会导致基于人工智能的导航表现不佳或失败。

为了评估 Transformer LLM 在理解现实世界规则和环境方面的准确性和连贯性,研究人员使用一类称为确定性有限自动化 (DFA) 的问题对其进行了测试。这些是一系列状态的问题,例如游戏规则或到达目的地的路线中的交叉点。在本例中,研究人员使用了从棋盘游戏《黑白棋》中提取的 DFA 以及纽约街道的导航。

为了使用 DFA 测试变压器,研究人员研究了两个指标。第一个是“序列确定”,它评估变压器法学硕士是否形成了一个连贯的世界模型,如果它看到同一事物的两种不同状态:两个奥赛罗棋盘或一张有道路封闭的城市地图,而另一张没有道路封闭。第二个指标是“序列压缩”——一个序列(在本例中是用于生成输出的数据点的有序列表),它应该表明具有连贯世界模型的法学硕士可以理解两个相同的状态(例如两个奥赛罗)完全相同的板)具有相同的可能步骤顺序。

依赖法学硕士是有风险的生意

根据这些指标对两类常见的法学硕士进行了测试。一个接受随机生成序列生成的数据的训练,另一个接受以下战略过程生成的数据的训练。

科学家发现,接受随机数据训练的变形金刚形成了更准确的世界模型,这可能是由于法学硕士看到了更广泛的可能步骤。主要作者凯扬·瓦法哈佛大学的一位研究人员在一份声明中解释道:“在《黑白棋》中,如果你看到两台随机计算机而不是冠军选手下棋,理论上你会看到全套可能的走法,即使是糟糕的走法,冠军选手也看不到——不做。”通过看到更多可能的举措,即使它们很糟糕,法学硕士理论上可以更好地适应随机变化。

然而,尽管生成了有效的奥赛罗棋步和准确的方向,但只有一个变压器为奥赛罗生成了连贯的世界模型,并且两种类型都没有生成准确的纽约地图。当研究人员引入诸如绕道之类的东西时,法学硕士使用的所有导航模型都失败了。

Vafa 补充道:“令我惊讶的是,一旦我们添加了一条绕道,性能就下降得如此之快。如果我们只关闭 1% 的可能街道,准确率就会立即从近 100% 骤降至 67%。”

研究人员表示,这表明需要采用不同的方法来使用法学硕士来生成准确的世界模型。这些方法可能是什么尚不清楚,但它确实凸显了变压器法学硕士在面对动态环境时的脆弱性。

“通常,我们看到这些模型做了令人印象深刻的事情,并认为它们一定了解世界的某些东西,”Rambachan 总结道。“我希望我们能够让人们相信这是一个需要仔细思考的问题,我们不必依靠自己的直觉来回答它。”

罗兰·摩尔-科利尔是 Live Science 的自由撰稿人,也是消费者科技出版物 TechRadar 的总编辑,负责移动计算垂直领域的工作。在英国和美国最大的消费技术网站 TechRadar 之一,他专注于智能手机和平板电脑。但除此之外,他还利用十多年的写作经验,为人们带来涵盖电动汽车 (EV)、人工智能 (AI) 的演变和实际使用、混合现实产品和用例以及计算演变的故事无论是从宏观层面还是从消费者角度来看。

关于《科学家警告说,大型语言模型不适合现实世界使用——即使是微小的变化也会导致他们的世界模型崩溃》的评论


暂无评论

发表评论

摘要

arXiv 上发表的新研究表明,像 GPT-4 这样的大型语言模型 (LLM) 无法准确地表示现实世界的场景,尽管它们在提供驾驶方向等特定任务中具有很高的准确性。科学家发现,当发生意想不到的变化时,法学硕士的表现会显着下降。这引发了人们对在动态环境中部署人工智能系统可能出现故障的担忧。该研究还强调了基于变压器的法学硕士的脆弱性,并表明可能需要不同的方法来产生准确的世界模型。