为什么人工智能是万事通却一无所知 - VentureBeat

2024-09-28 19:05:50 英文原文

加入我们的每日和每周时事通讯,了解有关行业领先人工智能报道的最新更新和独家内容。了解更多

每月有超过 5 亿人相信 Gemini 和 ChatGPT 让他们了解从意大利面到性或家庭作业的一切。但如果人工智能告诉你用汽油煮意大利面,你可能也不应该接受它在节育或代数方面的建议。

在一月份的世界经济论坛上,OpenAI 首席执行官萨姆·奥尔特曼 (Sam Altman) 尖锐地保证:我无法观察你的大脑来了解你为什么在想你在想什么。但我可以要求你解释你的推理,并决定这对我来说是否合理。我认为我们的人工智能系统也能够做同样的事情。他们将能够向我们解释从 A 到 B 的步骤,我们可以决定我们是否认为这些步骤是好的。

知识需要论证

奥特曼想要我们也就不足为奇了相信像 ChatGPT 这样的大型语言模型 (LLM) 可以为他们所说的一切提供透明的解释:如果没有充分的理由,人类相信或怀疑的任何东西都不会等于知识。为什么不呢?好吧,想想什么时候你可以放心地说你确实知道某件事。最有可能的是,当您对自己的信念感到绝对有信心时,因为它得到了证据、论点或受信任权威的证词的充分支持。

大语言模型应该是值得信赖的权威;可靠的信息提供者。但除非他们能够解释他们的推理,否则我们无法知道他们的主张是否符合我们的论证标准。例如,假设您告诉我今天田纳西州的雾霾是由加拿大西部的野火引起的。我可能会相信你的话。但是假设昨天你郑重其事地向我发誓,蛇斗是论文答辩的常规部分。那我就知道你并不完全可靠。所以我可能会问你为什么认为烟雾是由加拿大野火造成的。为了证明我的信念是合理的,重要的是我知道你的报告是可靠的。

问题是,今天的人工智能系统无法通过分享他们所说的背后的推理来赢得我们的信任,因为没有这样的推理。大语言模型根本就不是为推理而设计的。相反,模型是根据大量的人类书写来训练的,以检测、然后预测或扩展语言中的复杂模式。当用户输入文本提示时,响应只是算法对模式最有可能如何继续的预测。这些输出(越来越)令人信服地模仿知识渊博的人可能会说的话。但底层过程与输出是否合理无关,更不用说真实了。正如 Hicks、Humphries 和 Slater 在 ChatGPT is Bullshit 中所说的那样,大语言模型旨在生成看起来符合事实的文本,而不实际关心事实。

因此,如果人工智能生成的内容不是人工生成的内容,人类的知识,到底是什么?希克斯、汉弗莱斯和斯莱特称其为“废话”,这是正确的。尽管如此,大语言模型所说的很多都是真实的。当这些胡说八道的机器产生事实上准确的输出时,它们会产生哲学家所说的 Gettier 案例(以哲学家 Edmund Gettier 命名)。这些案例很有趣,因为它们以奇怪的方式将真实信念与对这些信念合理性的无知结合起来。

人工智能输出可能就像海市蜃楼

考虑这个来自 8th 著作的例子世纪印度佛教哲学家达摩塔罗:想象一下,我们在炎热的天气里寻找水。我们突然看到了水,至少我们是这么认为的。事实上,我们看到的不是水,而是海市蜃楼,但当我们到达现场时,我们很幸运,在岩石下发现了水。我们能说我们对水有真正的了解吗?

人们普遍认为,无论是什么知识,这个例子中的旅行者都没有。相反,他们幸运地在他们没有充分理由相信会找到水的地方找到了水。

问题是,每当我们认为我们知道从大语言模型学到的东西时,我们就把自己置于同样的境地。身为法罗行者。如果大语言模型接受过高质量数据集的培训,那么它的断言很可能是正确的。这些断言可以比作海市蜃楼。可以证明其主张合理的证据和论据也可能存在于其数据集中的某个地方,就像岩石下涌出的水被证明是真实的一样。但是,可能存在的合理证据和论据在大语言模型的输出中没有发挥任何作用,就像水的存在在创造支持旅行者相信他们在那里找到水的幻觉方面没有发挥作用一样。

奥特曼的保证是,因此,具有很大的误导性。如果你要求大语言模型证明其产出的合理性,它会做什么?它不会给你一个真正的理由。它会给你一个 Gettier 理由:一种令人信服地模仿理由的自然语言模式。合理性的幻想。正如希克斯等人所说,这是一个胡说八道的理由。众所周知,这根本没有道理。

现在,人工智能系统经常会搞砸,或者产生幻觉,从而使面具滑落。但随着合理性的幻觉变得更加令人信服,以下两种情况之一将会发生。

对于那些了解真正的人工智能内容是一个大盖蒂尔案例的人来说,大语言模型明显错误地声称正在解释自己的推理损害其可信度。众所周知,人工智能经过精心设计和训练,具有系统性的欺骗性。

而我们这些不知道人工智能吐出盖蒂尔理由的人是假理由吗?好吧,好吧,只是被骗了。在某种程度上,我们依赖大语言模型,我们生活在一种准矩阵中,无法区分事实和虚构,并且没有意识到我们应该担心可能存在差异。

每个输出都必须合理

h2>

在权衡这种困境的重要性时,重要的是要记住,大语言模型的工作方式没有任何问题。它们是令人难以置信的强大工具。了解人工智能系统吐出 Gettier 案例而不是(人工)知识的人已经以考虑到这一点的方式使用大语言模型。程序员使用大语言模型起草代码,然后利用自己的编码专业知识根据自己的标准和目的修改代码。教授们利用大语言模型起草论文提示,然后根据自己的教学目标进行修改。在这个选举周期中,任何名副其实的演讲撰稿人都会在让他们的候选人带着它走上台之前,对任何人工智能撰写的草稿进行事实检查。等等。

但大多数人恰恰在我们缺乏专业知识的地方转向人工智能。想想研究代数或预防措施的青少年。或者寻求饮食或投资建议的老年人。如果大语言模型要调解公众获取此类关键信息,那么至少我们需要知道我们是否以及何时可以信任他们。信任需要了解大语言模型无法告诉我们的事情:每个输出是否以及如何合理。

幸运的是,您可能知道橄榄油比汽油更适合烹饪意大利面。但是,您在没有尝试过合理性的情况下,吞下了哪些现实的危险处方?

亨特·卡莱 (Hunter Kallay) 是田纳西大学哲学博士生。

克里斯蒂娜·格尔曼 (Kristina Gehrman) 博士,是田纳西大学哲学副教授。

DataDecisionMakers

欢迎来到 VentureBeat 社区!

DataDecisionMakers 是专家(包括处理数据的技术人员)的聚集地工作,可以分享与数据相关的见解和创新。

如果您想了解前沿思想和最新信息、最佳实践以及数据和数据技术的未来,请加入我们在 DataDecisionMakers。

您甚至可以考虑贡献自己的文章!

关于《为什么人工智能是万事通却一无所知 - VentureBeat》
暂无评论

摘要

加入我们的每日和每周时事通讯,了解有关行业领先人工智能报道的最新更新和独家内容。知识需要论证奥特曼希望我们相信像 ChatGPT 这样的大型语言模型 (LLM) 可以为他们所说的一切提供透明的解释,这并不奇怪:如果没有充分的论证,人类相信或怀疑的任何东西都不能算作知识。尽管如此,大语言模型所说的很多都是真实的。但是,你在没有尝试过合理性的情况下,吞下了现实的危险配方吗?亨特·卡莱是田纳西大学哲学博士生。如果您想了解前沿思想和最新信息、最佳实践以及数据和数据技术的未来,请加入我们的 DataDecisionMakers。