作者:by Seoul National University College of Engineering
由首尔国立大学工程学院的研究人员组成的团队开发了能够以超低功耗执行人工智能(AI)计算的神经形态硬件。研究表明,发表在日记中自然纳米技术,解决了现有智能半导体材料和设备的基本问题,同时展示了阵列级技术的潜力。
目前,物联网(IoT)、用户数据分析、生成式人工智能、大语言模型(LLM)和自动驾驶等各个领域的大数据并行计算消耗了大量的电力。然而,用于并行计算的传统硅基CMOS半导体计算面临着能耗高、内存和处理器速度较慢以及高密度工艺的物理限制等问题。尽管人工智能对日常生活做出了积极贡献,但这还是导致了能源和碳排放问题。
为了应对这些挑战,有必要克服基于数字的冯诺依曼架构计算的局限性。因此,开发模仿人脑工作原理的下一代基于智能半导体的神经形态硬件已成为一项关键任务。
人脑由大约 1000 亿个神经元和 100 万亿个突触连接。突触通过突触权重存储相互关联的信息并进行计算和推理,是智能的基本单位。
基于模拟大脑突触操作的智能半导体设备的神经形态硬件依赖于能够存储多个电阻状态的忆阻器设备,并利用这些权重进行计算。然而,广泛研究的用于忆阻器的非晶金属氧化物通过导电丝运行,导致电荷仅在特定区域累积。这导致不对称和非线性的突触权重调整,从而导致并行计算不准确和能量效率低。
为了解决这个问题,Seung Ju Kim 博士和 Ho Won Jang 教授重点研究了卤化物钙钛矿材料的高离子迁移率,该材料作为下一代太阳能电池和 LED 的材料而受到关注。他们专注于开发基于有机-无机混合材料的神经形态设备。研究小组发现,在新设计的二维钙钛矿材料中,离子可以均匀分布在半导体表面。
这一突破使得超线性和对称突触权重控制得以成功实现,这在以前是传统智能半导体无法实现的。该机制的理论原理已通过浦项科技大学团队进行的第一性原理计算得到证明。
通过利用已开发的性能设备,研究人员评估了在硬件中执行的人工智能计算的准确性。他们证实,不仅对于 MNIST 和 CIFAR 等小型数据集,而且对于 ImageNET 等大型数据集,该设备都可以在理论限制内以小于 0.08% 的极小误差范围进行推理。
此外,通过合作研究与南加州大学合作,证明人工智能计算可以通过超低功耗加速,不仅在设备级别,而且在阵列级别。
这项研究显着提高了智能半导体材料和器件的能源效率,有望为降低人工智能计算的整体能耗做出巨大贡献。此外,通过实现超线性和对称的突触权重控制,可以显着提高AI计算精度,并具有在自动驾驶和医疗诊断等各个领域的应用潜力。此外,这项技术预计将刺激下一代人工智能硬件技术的进步以及半导体行业的创新。
本研究开发的技术是三年前在一篇突出论文中提出的技术的升级版本发表作者:Kim 博士和 Jang 教授在期刊上今日材料。目前韩国和美国的专利申请正在接受审查。
领导这项研究的Jang教授评论道:“这项研究为解决下一代智能半导体器件的基本问题提供了至关重要的基础数据。其意义在于证明了离子在材料表面的均匀运动对于解决下一代智能半导体器件的问题更为重要。”开发高性能神经形态硬件而不是创建局部细丝半导体材料。”更多信息:
Seung Ju Kim 等人,用于神经形态计算的线性可编程二维卤化物钙钛矿忆阻器阵列,自然纳米技术(2024)。DOI:10.1038/s41565-024-01790-3提供者:
首尔大学工学院
引文:超低功耗神经形态硬件有望实现节能 AI 计算(2024 年,10 月 30 日)检索日期:2024 年 10 月 30 日来自 https://techxplore.com/news/2024-10-ultra-power-neuromorphic-hardware-energy.html
本文档受版权保护。除了出于私人学习或研究目的的任何公平交易外,不得未经书面许可,不得复制部分内容。所提供的内容仅供参考。