最近的社区讨论重新引发了关于中国科技巨头是否百度可能在美国的 OpenAI 之前就已经为大规模人工智能 (AI) 模型奠定了关键的理论基础。
大型模型,或“基础模型”,处于最前沿人工智能开发,其快速迭代推动了尖端应用程序。虽然美国通常被视为领先的先进人工智能模型创新,但一些人认为中国可能更早开始探索这些概念。
大型模型开发的核心是“缩放法则”,这一原则主张训练数据和模型参数越大,模型的智能就越强。这一想法被广泛归功于 OpenAI 2020 年的论文“神经语言模型的扩展定律”,此后它已成为人工智能研究的基石。
这开放人工智能论文表明,增加模型参数、训练数据和计算资源可以按照幂律关系提高性能。这一见解指导了后续大规模人工智能模型的开发。
然而,OpenAI 论文的合著者、该公司前研究副总裁达里奥·阿莫迪 (Dario Amodei) 在 11 月的播客中分享说,他早在 2014 年在百度任职期间就观察到了类似的现象。
– 2014 年底,当我与 [前百度首席科学家] 吴恩达 (Andrew Ng) 在百度工作时,我们做的第一件事是语音识别系统,”阿莫代说。– 我注意到,当你为模型提供更多数据、使其更大、训练时间更长时,模型就会得到改进。