日本公布了建造世界上最快的超级计算机的计划。使用当前技术为这样的超级计算机提供动力需要 21 个核电站的能源输出。
人工智能驱动的数据中心的能源消耗已经成为人类关注的一个重大问题。因此,获取能源很可能会(或者说应该)成为人工智能发展的障碍。目前,数据中心消耗了全球约 3% 的电力,并且需要大量的水。最近在田纳西州孟菲斯推出的名为 Colossus 的 xAI 数据中心就是这个问题的例证,该数据中心每天为其 AI 训练系统使用 150 兆瓦的电力和 100 万加仑的水。
Noel Hurley,Literal Labs 的首席执行官Arm 前高管强调了这个问题的严重性。他认为,能源和效率是人工智能发展的最大障碍,因为数据中心已经消耗了各国能源的很大一部分。市场和经济已经能够适应更昂贵的芯片,但我们正在达到能源消耗的极限。
这场能源危机的根源在于神经网络的基本结构。这些网络的核心依赖于大型矩阵乘法函数,这些函数的计算成本很高且能源密集型。这个过程使得芯片成本高昂且耗电。Hurley 指出,神经网络的核心是乘法,这是我们今天遇到的问题的根源。
曲线跳跃产品
为了解决这个问题,需要对人工智能进行彻底的重新思考基础知识是必要的。Guy Kawasaki 在他的著作《The Art of the Start 2.0》中解释了“曲线跳跃产品”的概念。用川崎的话说,当企业家精神能够改变未来时,它就达到了最佳状态,而当它跳跃曲线时,它也改变了未来。虽然有现代的例子,但列奥纳多·达·芬奇可以说是最伟大的创新创造者,他跳过边际改进,创造了技术和科学的变革性转变。
回到现代。Literal Labs 正在利用其 Tsetlin 机器方法工具包开发一种潜在的人工智能曲线跳跃解决方案。这种方法起源于 20 世纪 60 年代的苏联,后来被挪威和英国的研究人员复兴并与命题逻辑相结合。正如 Hurley 解释的那样,我们花了五年时间研究神经网络的初创公司,并得出结论:这些公司只是在边缘徘徊。因此,我们采取了完全不同的方法。
Tsetlin 机器方法
Literal Labs 方法用大量 if-then 语句、查找表和 Tsetlin 机器自动机取代了乘法函数。该技术使用投票算法来确定要包含哪些语句,其能耗仅为传统神经网络的一小部分(千分之一),并且推理速度提高了 1000 倍。该公司目前正在最终确定外部基准测试,以提供与神经网络相比的能源使用和效率的经过验证的统计数据。
现实世界的应用