作者:PYMNTS
Meta 的首席人工智能科学家严乐存 周三(1 月 8 日)批评通用人工智能 (AGI) 的流行定义,认为仅持续扩展基于文本的大型语言模型是不够的。
在拉斯维加斯 CES 的炉边谈话中,这位法国人、图灵奖(计算领域的诺贝尔奖)获得者与 OpenAI 首席执行官的观点存在分歧Sam Altman 在他最近的帖子中声称他的团队已经知道如何构建通用人工智能,并且正在超越它转向超级智能。
LeCun 表示,大型语言模型 (LLM) 无法达到 AGI,尽管他更喜欢使用“人类水平的智能”这个术语。
——有——绝对地LeCun 表示,我们今天所知的自回归法学硕士不可能达到人类智力水平。“这根本不会发生。”
法学硕士经过训练可以查看所有可能的文本在完成一个句子,然后选择最好的文本。但人类的大脑不仅仅看文本,还看所有的东西的类型方式。此外,人工智能系统现在主要由所谓的“狭义人工智能”组成,它可以非常好地完成某些特定任务,例如玩国际象棋或做医疗诊断。但稍微偏离一点,他们就会失败。
“人工智能领域的人们一直在犯这样的错误,他们说,‘好吧,我们现在有了可以在国际象棋中击败我们的系统,所以很快,他们就会像我们一样聪明,’”他说。– 我们现在拥有可以驾驶汽车穿越沙漠的系统。很快,我们就会拥有 5 级自动驾驶汽车。13 年后,我们仍然没有。
“通过组装所有系统,我们将拥有可以做很多事情的系统,但这并不意味着它们具有人类水平的智能,”他继续说道。——这并不意味着他们有能力计划、推理……或理解物理世界。”
虽然人工智能系统可能擅长认知任务,但它们无法完成管道等物理任务。“我们短期内不会拥有自动化水管工,”他说。——这非常复杂。它需要一个很深的对物理世界的理解和[物体]的操纵。
——这并不是因为我们无法制造机器人。只是我们无法让它们足够聪明,”LeCun 继续说道。—实际上,我们对任何动物(猫或狗)的物理世界的理解还远远不够。”
另一个问题是法学硕士一直在通过扩展来提高性能,其中包括对他们进行更大量的数据培训。但现在缩放法则已经达到了收益递减的地步。“规模扩张已经饱和,”LeCun 说。
即使规模继续扩大让法学硕士变得更好,它仍然存在 –非常贵”,他补充道,这就是为什么 OpenAI 尽管每月向 ChatGPT Pro 收取 200 美元的费用,但“并没有从中赚钱。”(Altman披露的它在 1 月 5 日的 X 帖子中。)
但LeCun 确实看到了即将取得的进展为了由于创建虚拟世界的生成世界模型的兴起,人工智能驱动的机器人为了机器人到火车在。对于企业来说,比拥有机器人成本更低、风险更小火车在物理世界中。周一(1 月 6 日),Nvidia 首席执行官黄仁勋 (Jensen Huang)
揭幕Cosmos,公司平台创造机器人的虚拟世界。通过文本、图像或视频提示,开发人员可以使用 Cosmos 生成大量合成数据用于训练他们的“物理人工智能”系统,例如机器人和自动驾驶汽车。
谷歌 DeepMind 是招聘一个新的生成世界模型团队,尽管人工智能先锋李飞飞的世界实验室该公司获得了 2.3 亿美元的资金,来自硅谷名人录,其中包括人工智能先驱者、诺贝尔奖得主杰弗里·辛顿 (Geoffrey Hinton)、Salesforce 首席执行官马克·贝尼奥夫 (Marc Benioff)、LinkedIn 联合创始人里德·霍夫曼 (Reid Hoffman)、谷歌前董事长埃里克·施密特 (Eric Schmidt)和其他的。问
当他想到“ChatGPT 时刻”时机器人技术将会到来,LeCun表示,随着世界模型的出现他们可能还需要三到五年的时间。然而,随着人们习惯于让不同类型的人工智能助手帮助他们工作,LeCun 确实看到人工智能代理变得司空见惯。
但这些将是针对某些任务进行训练的机器人,而不是真正的智能人工智能助手那可以从头开始执行活动,无需接受专门培训。