发表在《科学进展》上的论文重点关注受大脑启发的神经网络
RIT 助理教授 Alexander Ororbia 正在使人造大脑变得更像真正的大脑。他在 Science Advances 上发表了一篇关于更节能、更快速的人工智能网络的研究文章。
大脑是灵感的重要来源亚历山大·奥罗比亚是 RIT 计算机科学和认知科学助理教授。
通过模仿大脑神经元的学习方式,Ororbia 致力于让人工智能 (AI) 变得更强大、更节能。他的研究最近发表在杂志上 科学进步。
RIT
RIT 助理教授亚历山大·奥罗比亚
研究文章,☀对比信号依赖性可塑性:尖峰神经回路中的自我监督学习,引入了一种人工智能网络架构,它通过尖峰处理信息,就像脑细胞使用的电信号一样。这种新的学习方法让人工智能能够进行自我监督学习,速度更快、适应性更强。
大多数为现代版本的生成人工智能和大型语言模型提供支持的深度神经网络都使用一种称为错误反向传播的学习方法。这种训练方法效果很好,但它通常必须回溯输入和输出之间的长通信路径,这在时间和能源上都是不高效的。
“大脑并不是为了以这种方式学习而设计的,”奥罗比亚说。——大脑中的事物更加稀疏——更加局部化。当你观察核磁共振成像时,你会发现很少有神经元同时消失。如果你的大脑像现代人工智能一样工作,并且你的所有或大部分神经元同时放电,你就会死掉。”
Ororbia 的新方法解决了反向传播的固有问题。它让网络无需持续的监督反馈即可学习。该网络通过将虚假数据与真实数据进行比较来提高其分类和理解模式的能力。
该方法还可以并行工作,这意味着网络的不同部分可以同时学习,而无需相互等待。研究表明,尖峰神经网络的能效比现代深度神经网络高几个数量级。
“新方法就像一个处方,告诉你如何具体改变连接结构中尖峰神经元的小突触的强度或可塑性,”奥罗比亚说。“它基本上告诉人工智能在掌握一些数据时要做什么——如果你想让神经元稍后放电,就增加突触的强度,或者减少神经元的安静程度。”
Ororbia 表示,这项新技术将对边缘计算有用。例如,拥有更节能的人工智能对于延长自动驾驶电动汽车和机器人控制器的电池寿命至关重要。
接下来,奥罗比亚希望证明他的理论可以扩展并在现实生活中产生能源效率。他正在与科里·默克尔计算机工程助理教授,在强大的神经形态芯片上评估该方法。
奥罗比亚同时也是神经自适应计算实验室RIT 的(NAC 实验室)戈利萨诺计算与信息科学学院,他正在与研究人员合作开发更多的类脑计算应用程序。