错误 - 背面范围(BackProp)算法仍然是人工神经网络中信用分配问题的最常见解决方案。在神经科学中,尚不清楚大脑是否可以采用类似的策略来纠正其突触。最近的模型试图弥合这一差距,同时与一系列实验观察一致。但是,这些模型要么无法有效地跨多层返回误差信号,要么需要多相学习过程,它们都不让人想起大脑中的学习。在这里,我们介绍了一种新模型,破裂的皮质皮质网络(BUSTCCN),该网络通过整合了皮质网络的已知特性,即爆发活动,短期可塑性(STP)和dendrite-target-targeting Interneurons来解决这些问题。 BUSTCCN依赖于连接型特异性STP的突发多路复用来传播深层皮质网络中的反向Prop样误差信号。这些误差信号是在远端树突上编码的,由于兴奋性抑制性抑制性倒入输入而诱导爆发依赖性可塑性。首先,我们证明我们的模型可以使用单相学习过程有效地通过多层回溯错误。接下来,我们通过经验和分析表明,在我们的模型中学习近似反向推广的梯度。最后,我们证明我们的模型能够学习复杂的图像分类任务(MNIST和CIFAR-10)。总体而言,我们的结果表明,跨细胞,细胞,微电路和系统水平的皮质特征共同基于大脑中的单相有效深度学习。
translated by 谷歌翻译
Models of sensory processing and learning in the cortex need to efficiently assign credit to synapses in all areas. In deep learning, a known solution is error backpropagation, which however requires biologically implausible weight transport from feed-forward to feedback paths. We introduce Phaseless Alignment Learning (PAL), a bio-plausible method to learn efficient feedback weights in layered cortical hierarchies. This is achieved by exploiting the noise naturally found in biophysical systems as an additional carrier of information. In our dynamical system, all weights are learned simultaneously with always-on plasticity and using only information locally available to the synapses. Our method is completely phase-free (no forward and backward passes or phased learning) and allows for efficient error propagation across multi-layer cortical hierarchies, while maintaining biologically plausible signal transport and learning. Our method is applicable to a wide class of models and improves on previously known biologically plausible ways of credit assignment: compared to random synaptic feedback, it can solve complex tasks with less neurons and learn more useful latent representations. We demonstrate this on various classification tasks using a cortical microcircuit model with prospective coding.
translated by 谷歌翻译
深度学习的成功激发了人们对大脑是否使用基于梯度的学习来学习层次结构表示的兴趣。但是,目前在深层神经网络中基于梯度的信用分配的生物学上合理的方法需要无限的小反馈信号,这在生物学上现实的嘈杂环境中是有问题的,并且与神经科学的实验证据不符,表明自上而下的反馈可以显着影响神经活动。在最近提出的一种信用分配方法的深度反馈控制(DFC)的基础上,我们结合了对神经活动的强烈反馈影响与基​​于梯度的学习,并表明这自然会导致对神经网络优化的新看法。权重更新并没有逐渐将网络权重转换为具有低输出损失的配置,而是逐渐最大程度地减少了将网络驱动到监督输出标签的控制器所需的反馈量。此外,我们表明,在DFC中使用强反馈的使用允许同时学习和反馈连接,并在时空中完全本地学习规则。我们通过对标准计算机视觉基准测试的实验来补充我们的理论结果,显示了反向传播的竞争性能以及对噪声的鲁棒性。总体而言,我们的工作提出了一种从根本上新颖的学习视图,作为控制最小化,同时避开了生物学上不切实际的假设。
translated by 谷歌翻译
人工神经网络中的监督学习通常依赖于反向传播,其中权重根据误差函数梯度进行更新,并从输出层到输入层依次传播。尽管这种方法已被证明在广泛的应用领域有效,但在许多方面缺乏生物学上的合理性,包括重量对称问题,学习对非本地信号的依赖性,错误传播期间的神经活动的冻结以及更新锁定的冻结问题。已经引入了替代培训计划,包括标志对称性,反馈对准和直接反馈对准,但它们总是依靠向后传球,这阻碍了同时解决所有问题的可能性。在这里,我们建议用第二个正向通行证替换向后通行证,其中根据网络的误差调制输入信号。我们表明,这项新颖的学习规则全面解决了上述所有问题,并且可以应用于完全连接和卷积模型。我们测试了有关MNIST,CIFAR-10和CIFAR-100的学习规则。这些结果有助于将生物学原理纳入机器学习。
translated by 谷歌翻译
平衡系统是表达神经计算的有力方法。作为特殊情况,它们包括对神经科学和机器学习的最新兴趣模型,例如平衡复发性神经网络,深度平衡模型或元学习。在这里,我们提出了一个新的原则,用于学习具有时间和空间本地规则的此类系统。我们的原理将学习作为一个最不控制的问题,我们首先引入一个最佳控制器,以将系统带入解决方案状态,然后将学习定义为减少达到这种状态所需的控制量。我们表明,将学习信号纳入动力学作为最佳控制可以以先前未知的方式传输信用分配信息,避免将中间状态存储在内存中,并且不依赖无穷小的学习信号。在实践中,我们的原理可以使基于梯度的学习方法的强大绩效匹配,该方法应用于涉及复发性神经网络和元学习的一系列问题。我们的结果阐明了大脑如何学习并提供解决广泛的机器学习问题的新方法。
translated by 谷歌翻译
Synaptic plasticity allows cortical circuits to learn new tasks and to adapt to changing environments. How do cortical circuits use plasticity to acquire functions such as decision-making or working memory? Neurons are connected in complex ways, forming recurrent neural networks, and learning modifies the strength of their connections. Moreover, neurons communicate emitting brief discrete electric signals. Here we describe how to train recurrent neural networks in tasks like those used to train animals in neuroscience laboratories, and how computations emerge in the trained networks. Surprisingly, artificial networks and real brains can use similar computational strategies.
translated by 谷歌翻译
Understanding how biological neural networks carry out learning using spike-based local plasticity mechanisms can lead to the development of powerful, energy-efficient, and adaptive neuromorphic processing systems. A large number of spike-based learning models have recently been proposed following different approaches. However, it is difficult to assess if and how they could be mapped onto neuromorphic hardware, and to compare their features and ease of implementation. To this end, in this survey, we provide a comprehensive overview of representative brain-inspired synaptic plasticity models and mixed-signal CMOS neuromorphic circuits within a unified framework. We review historical, bottom-up, and top-down approaches to modeling synaptic plasticity, and we identify computational primitives that can support low-latency and low-power hardware implementations of spike-based learning rules. We provide a common definition of a locality principle based on pre- and post-synaptic neuron information, which we propose as a fundamental requirement for physical implementations of synaptic plasticity. Based on this principle, we compare the properties of these models within the same framework, and describe the mixed-signal electronic circuits that implement their computing primitives, pointing out how these building blocks enable efficient on-chip and online learning in neuromorphic processing systems.
translated by 谷歌翻译
平衡传播(EP)是返回传播(BP)的替代方法,它允许使用本地学习规则训练深层神经网络。因此,它为训练神经形态系统和了解神经生物学的学习提供了一个令人信服的框架。但是,EP需要无限的教学信号,从而限制其在嘈杂的物理系统中的适用性。此外,该算法需要单独的时间阶段,并且尚未应用于大规模问题。在这里,我们通过将EP扩展到全体形态网络来解决这些问题。我们分析表明,即使对于有限振幅教学信号,这种扩展也会自然导致精确的梯度。重要的是,可以将梯度计算为在连续时间内有限神经元活性振荡的第一个傅立叶系数,而无需单独的阶段。此外,我们在数值模拟中证明了我们的方法允许在存在噪声的情况下对梯度的强大估计,并且更深的模型受益于有限的教学信号。最后,我们在ImageNet 32​​x32数据集上建立了EP的第一个基准,并表明它与接受BP训练的等效网络的性能相匹配。我们的工作提供了分析见解,使EP可以扩展到大规模问题,并为振荡如何支持生物学和神经形态系统的学习建立正式框架。
translated by 谷歌翻译
The spectacular successes of recurrent neural network models where key parameters are adjusted via backpropagation-based gradient descent have inspired much thought as to how biological neuronal networks might solve the corresponding synaptic credit assignment problem. There is so far little agreement, however, as to how biological networks could implement the necessary backpropagation through time, given widely recognized constraints of biological synaptic network signaling architectures. Here, we propose that extra-synaptic diffusion of local neuromodulators such as neuropeptides may afford an effective mode of backpropagation lying within the bounds of biological plausibility. Going beyond existing temporal truncation-based gradient approximations, our approximate gradient-based update rule, ModProp, propagates credit information through arbitrary time steps. ModProp suggests that modulatory signals can act on receiving cells by convolving their eligibility traces via causal, time-invariant and synapse-type-specific filter taps. Our mathematical analysis of ModProp learning, together with simulation results on benchmark temporal tasks, demonstrate the advantage of ModProp over existing biologically-plausible temporal credit assignment rules. These results suggest a potential neuronal mechanism for signaling credit information related to recurrent interactions over a longer time horizon. Finally, we derive an in-silico implementation of ModProp that could serve as a low-complexity and causal alternative to backpropagation through time.
translated by 谷歌翻译
过去十年来,人们对人工智能(AI)的兴趣激增几乎完全由人工神经网络(ANN)的进步驱动。尽管ANN为许多以前棘手的问题设定了最先进的绩效,但它们需要大量的数据和计算资源进行培训,并且由于他们采用了监督的学习,他们通常需要知道每个培训示例的正确标记的响应,并限制它们对现实世界域的可扩展性。尖峰神经网络(SNN)是使用更多类似脑部神经元的ANN的替代方法,可以使用无监督的学习来发现输入数据中的可识别功能,而又不知道正确的响应。但是,SNN在动态稳定性方面挣扎,无法匹配ANN的准确性。在这里,我们展示了SNN如何克服文献中发现的许多缺点,包括为消失的尖峰问题提供原则性解决方案,以优于所有现有的浅SNN,并等于ANN的性能。它在使用无标记的数据和仅1/50的训练时期使用无监督的学习时完成了这一点(标记数据仅用于最终的简单线性读数层)。该结果使SNN成为可行的新方法,用于使用未标记的数据集快速,准确,有效,可解释的机器学习。
translated by 谷歌翻译
为了在专门的神经形态硬件中进行节能计算,我们提出了尖峰神经编码,这是基于预测性编码理论的人工神经模型家族的实例化。该模型是同类模型,它是通过在“猜测和检查”的永无止境过程中运行的,神经元可以预测彼此的活动值,然后调整自己的活动以做出更好的未来预测。我们系统的互动性,迭代性质非常适合感官流预测的连续时间表述,并且如我们所示,模型的结构产生了局部突触更新规则,可以用来补充或作为在线峰值定位的替代方案依赖的可塑性。在本文中,我们对模型的实例化进行了实例化,该模型包括泄漏的集成和火灾单元。但是,我们系统所在的框架自然可以结合更复杂的神经元,例如Hodgkin-Huxley模型。我们在模式识别方面的实验结果证明了当二进制尖峰列车是通信间通信的主要范式时,模型的潜力。值得注意的是,尖峰神经编码在分类绩效方面具有竞争力,并且在从任务序列中学习时会降低遗忘,从而提供了更经济的,具有生物学上的替代品,可用于流行的人工神经网络。
translated by 谷歌翻译
尖峰神经网络(SNN)是大脑中低功率,耐断层的信息处理的基础,并且在适当的神经形态硬件加速器上实施时,可能构成传统深层神经网络的能力替代品。但是,实例化解决复杂的计算任务的SNN在Silico中仍然是一个重大挑战。替代梯度(SG)技术已成为培训SNN端到端的标准解决方案。尽管如此,它们的成功取决于突触重量初始化,类似于常规的人工神经网络(ANN)。然而,与ANN不同,它仍然难以捉摸地构成SNN的良好初始状态。在这里,我们为受到大脑中通常观察到的波动驱动的策略启发的SNN制定了一般初始化策略。具体而言,我们为数据依赖性权重初始化提供了实用的解决方案,以确保广泛使用的泄漏的集成和传火(LIF)神经元的波动驱动。我们从经验上表明,经过SGS培训时,SNN遵循我们的策略表现出卓越的学习表现。这些发现概括了几个数据集和SNN体系结构,包括完全连接,深度卷积,经常性和更具生物学上合理的SNN遵守Dale的定律。因此,波动驱动的初始化提供了一种实用,多功能且易于实现的策略,可改善神经形态工程和计算神经科学的不同任务的SNN培训绩效。
translated by 谷歌翻译
最近的研究表明,卷积神经网络(CNNS)不是图像分类的唯一可行的解决方案。此外,CNN中使用的重量共享和反向验证不对应于预测灵长类动物视觉系统中存在的机制。为了提出更加生物合理的解决方案,我们设计了使用峰值定时依赖性塑性(STDP)和其奖励调制变体(R-STDP)学习规则训练的本地连接的尖峰神经网络(SNN)。使用尖刺神经元和局部连接以及强化学习(RL)将我们带到了所提出的架构中的命名法生物网络。我们的网络由速率编码的输入层组成,后跟局部连接的隐藏层和解码输出层。采用尖峰群体的投票方案进行解码。我们使用Mnist DataSet获取图像分类准确性,并评估我们有益于于不同目标响应的奖励系统的稳健性。
translated by 谷歌翻译
预测性编码提供了对皮质功能的潜在统一说明 - 假设大脑的核心功能是最小化有关世界生成模型的预测错误。该理论与贝叶斯大脑框架密切相关,在过去的二十年中,在理论和认知神经科学领域都产生了重大影响。基于经验测试的预测编码的改进和扩展的理论和数学模型,以及评估其在大脑中实施的潜在生物学合理性以及该理论所做的具体神经生理学和心理学预测。尽管存在这种持久的知名度,但仍未对预测编码理论,尤其是该领域的最新发展进行全面回顾。在这里,我们提供了核心数学结构和预测编码的逻辑的全面综述,从而补充了文献中最新的教程。我们还回顾了该框架中的各种经典和最新工作,从可以实施预测性编码的神经生物学现实的微电路到预测性编码和广泛使用的错误算法的重新传播之间的紧密关系,以及对近距离的调查。预测性编码和现代机器学习技术之间的关系。
translated by 谷歌翻译
这项研究提出了依赖电压突触可塑性(VDSP),这是一种新型的脑启发的无监督的本地学习规则,用于在线实施HEBB对神经形态硬件的可塑性机制。拟议的VDSP学习规则仅更新了突触后神经元的尖峰的突触电导,这使得相对于标准峰值依赖性可塑性(STDP)的更新数量减少了两倍。此更新取决于突触前神经元的膜电位,该神经元很容易作为神经元实现的一部分,因此不需要额外的存储器来存储。此外,该更新还对突触重量进行了正规化,并防止重复刺激时的重量爆炸或消失。进行严格的数学分析以在VDSP和STDP之间达到等效性。为了验证VDSP的系统级性能,我们训练一个单层尖峰神经网络(SNN),以识别手写数字。我们报告85.01 $ \ pm $ 0.76%(平均$ \ pm $ s.d。)对于MNIST数据集中的100个输出神经元网络的精度。在缩放网络大小时,性能会提高(400个输出神经元的89.93 $ \ pm $ 0.41%,500个神经元为90.56 $ \ pm $ 0.27),这验证了大规模计算机视觉任务的拟议学习规则的适用性。有趣的是,学习规则比STDP更好地适应输入信号的频率,并且不需要对超参数进行手动调整。
translated by 谷歌翻译
Backpropagation is widely used to train artificial neural networks, but its relationship to synaptic plasticity in the brain is unknown. Some biological models of backpropagation rely on feedback projections that are symmetric with feedforward connections, but experiments do not corroborate the existence of such symmetric backward connectivity. Random feedback alignment offers an alternative model in which errors are propagated backward through fixed, random backward connections. This approach successfully trains shallow models, but learns slowly and does not perform well with deeper models or online learning. In this study, we develop a novel meta-plasticity approach to discover interpretable, biologically plausible plasticity rules that improve online learning performance with fixed random feedback connections. The resulting plasticity rules show improved online training of deep models in the low data regime. Our results highlight the potential of meta-plasticity to discover effective, interpretable learning rules satisfying biological constraints.
translated by 谷歌翻译
预测编码(PC)是皮质功能的一般理论。最近显示了一种PC模型中的本地梯度的学习规则,以密切近似近似。该发现表明,基于梯度的PC模型可能有助于了解大脑如何解决信用分配问题。该模型也可用于开发与神经族硬件兼容的局部学习算法。在本文中,我们修改了该PC模型,使其更好地适合生物限制,包括神经元只能具有正射击率的约束和突触只在一个方向上流动的约束。我们还计算基于梯度的权重和活动更新,给定修改的活动值。我们表明,在某些条件下,这些修改后的PC网络也表现出或几乎在MNIST数据中作为未修改的PC模型和具有BackPropagation培训的网络。
translated by 谷歌翻译
大脑如何执行信用分配是神经科学中的基本未解决问题。已经提出了许多“生物学上合理的”算法,这些算法计算了近似通过反向传播计算的梯度(BP),并以更紧密地满足神经回路施加的约束的方式运行。许多这样的算法都利用了基于能量的模型(EBM)的框架,其中对模型中的所有自由变量进行了优化以最大程度地减少全局能量函数。但是,在文献中,这些算法存在于孤立状态,没有将它们联系在一起的统一理论。在这里,我们提供了一个全面的理论,说明EBM可以近似BP的条件,这使我们能够统一许多BP近似值导致文献中的许多BP近似(即预测性编码,平衡传播和HEBBIAN学习),并证明它们的近似值均为BP源于自由相平衡处EBM的简单和一般数学特性。然后可以通过不同的能量函数以不同的方式利用该属性,这些特定选择产生了BP Approxatimating算法的家族,两者都包含文献中的已知结果,并且可用于得出新的结果。
translated by 谷歌翻译
尖峰神经网络(SNN)已成为用于分类任务的硬件有效体系结构。基于尖峰的编码的惩罚是缺乏完全使用尖峰执行的通用训练机制。已经进行了几项尝试,用于采用在非加速人工神经网络(ANN)中使用的强大反向传播(BP)技术:(1)SNN可以通过外部计算的数值梯度来训练。 (2)基于天然尖峰的学习的主要进步是使用具有分阶段的前向/向后传递的尖峰时间依赖性可塑性(STDP)的近似反向传播。但是,在此类阶段之间的信息传输需要外部内存和计算访问。这是神经形态硬件实现的挑战。在本文中,我们提出了一种基于随机SNN的后式Prop(SSNN-BP)算法,该算法利用复合神经元同时计算前向通行激活,并用尖峰明确计算前向传递梯度。尽管签名的梯度值是基于SPIKE的表示的挑战,但我们通过将梯度信号分为正和负流来解决这一问题。复合神经元以随机尖峰传播的形式编码信息,并将反向传播的权重更新转换为时间和空间上局部离散的STDP类似STDP的Spike Concike更新,使其与硬件友好的电阻式处理单元(RPU)兼容。此外,我们的方法使用足够长的尖峰训练来接近BP ANN基线。最后,我们表明,可以通过强制执行胜利者的抑制性横向连接来实现软磁体交叉渗透损失函数。我们的SNN通过与MNIST,时尚和扩展的MNIST数据集的ANN相当的性能来表现出极好的概括。因此,SSNN-BP可以使BP与纯粹基于尖峰的神经形态硬件兼容。
translated by 谷歌翻译
Spiking neural networks (SNN) are a viable alternative to conventional artificial neural networks when energy efficiency and computational complexity are of importance. A major advantage of SNNs is their binary information transfer through spike trains. The training of SNN has, however, been a challenge, since neuron models are non-differentiable and traditional gradient-based backpropagation algorithms cannot be applied directly. Furthermore, spike-timing-dependent plasticity (STDP), albeit being a spike-based learning rule, updates weights locally and does not optimize for the output error of the network. We present desire backpropagation, a method to derive the desired spike activity of neurons from the output error. The loss function can then be evaluated locally for every neuron. Incorporating the desire values into the STDP weight update leads to global error minimization and increasing classification accuracy. At the same time, the neuron dynamics and computational efficiency of STDP are maintained, making it a spike-based supervised learning rule. We trained three-layer networks to classify MNIST and Fashion-MNIST images and reached an accuracy of 98.41% and 87.56%, respectively. Furthermore, we show that desire backpropagation is computationally less complex than backpropagation in traditional neural networks.
translated by 谷歌翻译