作者:Neuroscience News
概括:研究人员开发了一种新型的人工神经元,称为foomormhic神经元,可以与附近的神经元独立学习和自组织,从而模仿生物学大脑的分散学习。这些神经元受到大脑皮层中金字塔细胞的启发,处理局部信号以适应并专门从事没有外部控制的任务。
每个构成神经元都根据新的信息理论措施确定是否合作,专业或与他人保持一致。这种方法不仅可以提高机器学习效率和透明度,而且还提供了有关生物神经元学习方式的宝贵见解。
关键事实:
来源:马克斯·普朗克学院
人脑和现代人工神经网络都非常强大。在最低级别上,神经元可以作为相当简单的计算单元一起工作。
人工神经网络通常由由单个神经元组成的几层组成。输入信号通过这些层,并通过人工神经元处理以提取相关信息。但是,传统的人工神经元与其学习方式的生物模型有显着差异。
尽管大多数人工神经网络都依赖于网络外的总体协调以学习,但生物神经元仅接收和处理网络附近其他神经元的信号。
就灵活性和能源效率而言,生物神经网络仍然优于人造神经网络。
新的人造神经元,称为 附加神经元,能够在其相邻神经元中独立学习和自组织。这意味着网络中最小的单元必须不再从外部控制,而要确定哪些输入是相关的,哪些是相关的。
在发展 附加神经元,该团队的灵感来自大脑的工作方式,尤其是大脑皮层中的锥体细胞。这些还可以从其直接环境中的不同来源处理刺激,并使用它们来适应和学习。
新的人工神经元追求非常笼统,易于理解的学习目标:我们现在直接了解网络内部发生的事情以及个人人工神经元如何独立学习,强调了Cidbn的Marcel Graetz。
通过定义学习目标,研究人员使神经元能够自己找到其特定的学习规则。
团队专注于每个神经元的学习过程。他们采用了一种新颖的信息理论措施来精确调整神经元是否应与邻居寻求更多的冗余,协同合作,或者尝试专门研究网络信息的一部分。
通过专门研究投入的某些方面并与邻居协调我们 附加神经元MPI-DS解释说,了解如何为网络的整体任务做出贡献。
与 附加神经元,团队不仅在开发一种新颖的机器学习方法,而且还有助于更好地理解大脑的学习。
作者: 曼努埃尔·梅恩恩(Manuel Maidorn)
来源:马克斯·普朗克学院
接触:Manuel Maidorn - Max Planck Institute
图像:图像被认为是神经科学新闻
原始研究:开放访问。
基于本地信息理论目标功能的可解释神经学习的一般框架Marcel Graetz等人。PNAS
抽象的
基于本地信息理论目标功能的可解释神经学习的一般框架
尽管生物学和人工网络的表现令人印象深刻,但对其本地学习动态如何有助于网络级任务解决方案的直观理解仍然是该日期的挑战。
然而,将学习提高到本地规模的努力确实导致了有价值的见解,但是,一种一般的建设性方法来描述当地学习目标,既可以解释又可以在各种任务中进行适应性适应。
我们先前已经制定了一个局部信息处理目标,该目标对于具有隔室结构的模型神经元具有高度适应性且可解释的。
在部分信息分解(PID)的最新进展为基础上,我们在这里得出了相应的局部学习规则,这使我们能够引入biformphic neformphic the Nearurnet网络。
我们演示了这些网络的多功能性,可以从受监督,无监督和内存学习中执行任务。
通过利用PID框架的可解释性质,信息网络代表了一种有价值的工具,可以提高我们对当地学习的复杂结构的理解。