本文已根据 Science X 的编辑流程和政策进行审阅。编辑在确保内容可信度的同时强调了以下属性:
事实核查
同行评审的出版物
可信来源
校对
像 ChatGPT 这样的人工智能 (AI) 模型运行在算法上,对数据有很大的胃口,它们通过机器处理数据学习,但是他们的数据处理能力的限制又如何呢?北京大学集成电路学院和人工智能研究院孙忠教授领导的研究人员着手解决限制数据处理的冯诺依曼瓶颈。
他们的论文于9月12日发表在《Device》杂志上2024年,团队开发了双IMC(内存计算)方案,不仅加速了机器学习过程,还提高了传统数据运算的能源效率。
在策划算法时,软件工程师和计算机科学家依赖称为矩阵向量乘法 (MVM) 的数据运算,它支持神经网络。神经网络是人工智能模型中常见的一种计算架构,它模仿人脑的功能和结构。
随着数据集规模的快速增长,计算性能往往受到数据移动和速度不匹配的限制。处理和传输数据。这被称为冯·诺依曼瓶颈。传统的解决方案是单内存计算(single-IMC)方案,其中神经网络权重存储在内存芯片中,而输入(例如图像)由外部提供。
但是,需要注意的是单IMC的最大问题是片内和片外数据传输之间的切换,以及数模转换器(DAC)的使用,导致电路占用空间大、功耗高。
为了充分发挥IMC原理的潜力,团队开发了双IMC方案,将神经网络的权重和输入都存储在内存阵列中,从而以完全内存中的方式执行数据操作。
该团队随后在电阻式随机存取存储器 (RRAM) 设备上测试了双 IMC,以进行信号恢复和图像处理。以下是双 IMC 方案应用于 MVM 操作时的一些好处:
随着当今数字时代对数据处理的需求迅速增长,这项研究的发现可能会带来新的突破计算架构和人工智能领域。
更多信息:Shiqing Wang 等人,用于加速神经网络的矩阵向量乘法的双内存计算,Device (2024)。DOI:10.1016/j.device.2024.100546