OC

Knowledge OS
鹦鹉螺口语
论文发现,人工智能代理在数学上无法完成功能性工作
2026-01-26 13:59:31 · 英文原文

论文发现,人工智能代理在数学上无法完成功能性工作

作者:Frank Landymore

A paper claims to mathematically prove that AI agents have a hard ceiling to their capabilities that they will never surpass.

加斯顿·巴黎 / 贡献者

一项历时数月但至今仍被忽视的研究最近出现在有线声称从数学上证明大型语言模型“无法执行超过一定复杂性的计算和代理任务”——最重要的是,复杂性水平相当低。

这篇尚未经过同行评审的论文由德国软件巨头 SAP 前首席技术官维沙尔·西卡 (Vishal Sikka) 和他的儿子瓦林·西卡 (Varin Sikka) 撰写。老西卡对人工智能略知一二:他师从约翰·麦卡锡(John McCarthy),约翰·麦卡锡是图灵奖获得者,计算机科学家,他确实创立了整个人工智能领域,事实上,他还帮助创造了这个术语。

“他们不可能可靠,”Vishal Sikka 告诉有线. . . 

当采访者询问时,西卡也同意我们应该忘记运行核电站的人工智能代理以及人工智能支持者抛出的其他尖锐承诺。

忽略科技首席执行官在台上滔滔不绝的言论并关注为他们工作的研究人员的发现,你会发现即使是人工智能行业也同意该技术有一些其架构中存在基本限制。例如,9 月份,OpenAI 科学家承认人工智能幻觉即使在日益先进的系统中,法学硕士自信地编造事实仍然是一个普遍的问题,而且模型的准确性“永远”不会达到 100%。

这似乎会极大地削弱所谓人工智能代理的可行性,人工智能代理是一种设计用于在没有人工干预的情况下自主执行任务的模型,去年业界普遍认为这将是下一个重大事件。一些采用人工智能代理来缩小员工规模的公司很快意识到,他们的代理还远远不足以取代即将离任的人类,也许是因为他们产生了太多幻觉并且能够几乎没有完成交给他们的任何任务

人工智能领导者坚持认为,人工智能模型外部更强大的护栏可以过滤掉幻觉。他们可能总是容易产生幻觉,但如果这些失误足够罕见,那么公司最终会信任他们,开始执行他们曾经委托给有血有肉的人的任务。在 OpenAI 研究人员的同一篇论文中,他们承认模型永远不会达到完美的准确性,他们也驳斥了幻觉“不可避免”的观点,因为法学硕士可以在不确定时放弃。(尽管如此,你很难找到一个真正做到这一点的流行聊天机器人,几乎可以肯定,因为这会让聊天机器人看起来不那么令人印象深刻,也不太吸引人)使用。)

尽管西卡坚信法学硕士有一个硬性上限,但他同意人工智能行业人士的观点,他们坚持认为幻觉是可以控制的。

“我们的论文指出,纯粹的法学硕士有这种固有的局限性,但与此同时,你确实可以围绕法学硕士构建克服这些限制的组件,”他告诉我们有线

有关人工智能的更多信息: OnlyFans 的竞争对手似乎屈服于人工智能精神病,我们敢于向你的父母解释这一点

关于《论文发现,人工智能代理在数学上无法完成功能性工作》的评论

暂无评论

发表评论

摘要

Vishal Sikka 和他的儿子 Varin Sikka 的一项研究声称大型语言模型 (LLM) 无法可靠地执行复杂的计算任务。这篇未经审查的论文表明,法学硕士存在基本的架构限制,导致它们无法实现高可靠性或准确性,从而破坏了人工智能支持者关于核电站等关键领域自主任务执行的承诺。虽然行业领导者认为外部系统可以减轻幻觉并提高可信度,但 Sikka 承认这种增强是可能的,但仍然声称对法学硕士能力有明确的限制。