许多日常活动和心理物理实验涉及在工作记忆中保持多个项目。当物品采用连续值(例如,方向,对比度,长度,响度),它们必须以适当的尺寸的连续结构存储。我们调查如何通过培训经常性网络在神经电路中在神经电路中提出两个先前显示的刺激取向。我们发现两个方向的活动歧管类似于克利福德·托鲁斯。虽然夹层和标准圆环(甜甜圈的表面)是拓扑相当的,但它们具有重要的功能差异。克利福德·托鲁斯平等地对待两种方向,并使它们保持在正交子空间中,如任务所要求的,而标准的圆环没有。我们发现并表征了支持Clifford Torus的连接模式。此外,除了通过持久性活动存储信息的吸引子之外,我们的网络还使用动态代码,其中单位改变调谐以防止新的感官输入覆盖先前存储的输入。我们认为,每当多个输入通过共享连接输入存储器系统时,通常需要这种动态代码。最后,我们将我们的框架应用于人类心理物理学实验,其中受试者报告了两个记忆的方向。通过改变RNN的培训条件,我们测试和支持人类行为是神经噪声的产物的假设,并且依赖于两个取向之间的序数关系的更稳定和行为相关的记忆。这表明RNNS中的合适的归纳偏差对于揭示人脑如何实现工作记忆很重要。这些结果在一起,了解了一类视觉解码任务的神经计算,从人类行为缩小到突触连接。
translated by 谷歌翻译
经常性神经网络(RNN)经常用于建模脑功能和结构的方面。在这项工作中,我们培训了小型完全连接的RNN,以具有时变刺激的时间和流量控制任务。我们的结果表明,不同的RNN可以通过对不同的底层动态进行不同的RNN来解决相同的任务,并且优雅地降低的性能随着网络尺寸而降低,间隔持续时间增加,或者连接损坏。我们的结果对于量化通常用作黑匣子的模型的不同方面是有用的,并且需要预先理解以建模脑皮质区域的生物反应。
translated by 谷歌翻译
人类可以通过最小的相互干扰连续学习几项任务,但一次接受多个任务进行培训时的表现较差。标准深神经网络相反。在这里,我们提出了针对人工神经网络的新型计算限制,灵感来自灵长类动物前额叶皮层的较​​早作品,以捕获交织训练的成本,并允许网络在不忘记的情况下按顺序学习两个任务。我们通过两个算法主题,所谓的“呆滞”任务单元和HEBBIAN训练步骤增强了标准随机梯度下降,该步骤加强了任务单元和编码与任务相关信息的隐藏单元之间的连接。我们发现,“缓慢”的单元在培训期间引入了转换成本,该单元在交错训练下偏向表示的表示,而忽略了上下文提示的联合表示,而Hebbian步骤则促进了从任务单元到隐藏层的门控方案的形成这会产生正交表示,完全防止干扰。在先前发布的人类行为数据上验证该模型表明,它与接受过封锁或交错课程训练的参与者的表现相匹配,并且这些绩效差异是由真实类别边界的误解驱动的。
translated by 谷歌翻译
实验神经科学的进步改变了我们探索神经电路结构和功能的能力。与此同时,机器学习的进步已经释放了人工神经网络(ANNS)的显着计算能力。虽然这两个字段具有不同的工具和应用程序,但它们存在类似的挑战:即,了解如何通过高维表示来嵌入信息并通过高维表示来解决复杂任务。解决这一挑战的一种方法是利用数学和计算工具来分析这些高维表示的几何形状,即神经人口几何形状。我们审查了解生物和人工神经网络功能的几何方法的示例:感知的代表性,在认知系统中的分类能力,解剖和抽象的几何理论,认知地图的拓扑表示,电机系统中的动态不包含一种动态的认知方法。这些发现在一起说明了机器学习,神经科学和几何形状的令人兴奋的趋势,其中神经人口几何形状提供了有用的人口级机械描述符基础任务实现。重要的是,几何描述适用于感官模态,脑区,网络架构和时间尺度。因此,神经人口几何形状有可能统一我们对生物和人工神经网络的结构和功能的理解,弥合单一神经元,人口和行为之间的差距。
translated by 谷歌翻译
在Meta-Learning中,网络培训了外部算法,以学习需要获取,存储和利用任务的每个新实例的不可预测信息的任务。然而,由于其演进的神经结构和突触塑性机制,动物能够自动拾取这种认知任务。在这里,我们发展了神经网络,基于神经科学建模框架的一组相当简单的元学习任务,赋予了神经网络。由此产生的进化网络可以通过其进化的神经组织和可塑性结构的自发操作自动获取新的简单认知任务。我们建议参加自然学习中涉及的多数循环可能会对智能行为的出现提供有用的见解。
translated by 谷歌翻译
跟踪湍流羽流以定位其源是一个复杂的控制问题,因为它需要多感觉集成,并且必须强大地间歇性气味,更改风向和可变羽流统计。这项任务是通过飞行昆虫进行常规进行的,通常是长途跋涉,以追求食物或配偶。在许多实验研究中已经详细研究了这种显着行为的几个方面。在这里,我们采用硅化方法互补,采用培训,利用加强学习培训,开发对支持羽流跟踪的行为和神经计算的综合了解。具体而言,我们使用深增强学习(DRL)来训练经常性神经网络(RNN)代理以定位模拟湍流羽毛的来源。有趣的是,代理人的紧急行为类似于飞行昆虫,而RNNS学会代表任务相关变量,例如自上次气味遭遇以来的头部方向和时间。我们的分析表明了一种有趣的实验可测试的假设,用于跟踪风向改变的羽毛 - 该试剂遵循局部羽状形状而不是电流风向。虽然反射短记忆行为足以跟踪恒定风中的羽毛,但更长的记忆时间表对于跟踪切换方向的羽毛是必不可少的。在神经动力学的水平下,RNNS的人口活动是低维度的,并且组织成不同的动态结构,与行为模块一些对应。我们的Silico方法提供了湍流羽流跟踪策略的关键直觉,并激励未来的目标实验和理论发展。
translated by 谷歌翻译
已知生物制剂在他们的生活过程中学习许多不同的任务,并且能够重新审视以前的任务和行为,而没有表现不损失。相比之下,人工代理容易出于“灾难性遗忘”,在以前任务上的性能随着所获取的新的任务而恶化。最近使用该方法通过鼓励参数保持接近以前任务的方法来解决此缺点。这可以通过(i)使用特定的参数正常数来完成,该参数正常数是在参数空间中映射合适的目的地,或(ii)通过将渐变投影到不会干扰先前任务的子空间来指导优化旅程。然而,这些方法通常在前馈和经常性神经网络中表现出子分子表现,并且经常性网络对支持生物持续学习的神经动力学研究感兴趣。在这项工作中,我们提出了自然的持续学习(NCL),一种统一重量正则化和预测梯度下降的新方法。 NCL使用贝叶斯重量正常化来鼓励在收敛的所有任务上进行良好的性能,并将其与梯度投影结合使用先前的精度,这可以防止在优化期间陷入灾难性遗忘。当应用于前馈和经常性网络中的连续学习问题时,我们的方法占据了标准重量正则化技术和投影的方法。最后,训练有素的网络演变了特定于任务特定的动态,这些动态被认为是学习的新任务,类似于生物电路中的实验结果。
translated by 谷歌翻译
这篇理论文章研究了如何在计算机中构建类似人类的工作记忆和思维过程。应该有两个工作记忆存储,一个类似于关联皮层中的持续点火,另一个类似于大脑皮层中的突触增强。这些商店必须通过环境刺激或内部处理产生的新表示不断更新。它们应该连续更新,并以一种迭代的方式进行更新,这意味着在下一个状态下,应始终保留一组共同工作中的某些项目。因此,工作记忆中的一组概念将随着时间的推移逐渐发展。这使每个状态都是对先前状态的修订版,并导致连续的状态与它们所包含的一系列表示形式重叠和融合。随着添加新表示形式并减去旧表示形式,在这些更改过程中,有些保持活跃几秒钟。这种持续活动,类似于人工复发性神经网络中使用的活动,用于在整个全球工作区中传播激活能量,以搜索下一个关联更新。结果是能够朝着解决方案或目标前进的联想连接的中间状态链。迭代更新在这里概念化为信息处理策略,一种思想流的计算和神经生理决定因素以及用于设计和编程人工智能的算法。
translated by 谷歌翻译
Synaptic plasticity allows cortical circuits to learn new tasks and to adapt to changing environments. How do cortical circuits use plasticity to acquire functions such as decision-making or working memory? Neurons are connected in complex ways, forming recurrent neural networks, and learning modifies the strength of their connections. Moreover, neurons communicate emitting brief discrete electric signals. Here we describe how to train recurrent neural networks in tasks like those used to train animals in neuroscience laboratories, and how computations emerge in the trained networks. Surprisingly, artificial networks and real brains can use similar computational strategies.
translated by 谷歌翻译
尽管对生物学上合理的学习规则进行了广泛的理论工作,但很难获得有关大脑中是否以及如何实施此类规则的明确证据。我们考虑在生物学上合理的监督和加强学习规则,并询问学习过程中网络活动的变化是否可以用于确定正在使用哪种学习规则。有监督的学习需要一个信用分配模型来估计从神经活动到行为的映射,并且在生物生物体中,该模型将不可避免地是理想映射的不完善的近似,从而导致相对于重量更新的偏见真正的梯度。另一方面,强化学习不需要信用分配模型,并且倾向于按照真正的梯度方向进行体重更新。我们得出一个指标,通过观察学习过程中网络活动的变化来区分学习规则,鉴于实验者已经知道了从大脑到行为的映射。由于脑机界面(BMI)实验允许对该映射进行完美了解,因此我们专注于使用复发性神经网络对光标控制BMI任务进行建模,这表明可以在模拟实验中使用神经科学实验者将在模拟实验中进行区分,以区分学习规则。合理地可以访问。
translated by 谷歌翻译
In the brain, information is encoded, transmitted and used to inform behaviour at the level of timing of action potentials distributed over population of neurons. To implement neural-like systems in silico, to emulate neural function, and to interface successfully with the brain, neuromorphic circuits need to encode information in a way compatible to that used by populations of neuron in the brain. To facilitate the cross-talk between neuromorphic engineering and neuroscience, in this Review we first critically examine and summarize emerging recent findings about how population of neurons encode and transmit information. We examine the effects on encoding and readout of information for different features of neural population activity, namely the sparseness of neural representations, the heterogeneity of neural properties, the correlations among neurons, and the time scales (from short to long) at which neurons encode information and maintain it consistently over time. Finally, we critically elaborate on how these facts constrain the design of information coding in neuromorphic circuits. We focus primarily on the implications for designing neuromorphic circuits that communicate with the brain, as in this case it is essential that artificial and biological neurons use compatible neural codes. However, we also discuss implications for the design of neuromorphic systems for implementation or emulation of neural computation.
translated by 谷歌翻译
视觉搜索是一项普遍存在的,通常挑战日常任务,是通过寻找家中的汽车钥匙或在人群中的朋友。一些经典搜索任务的有趣性属性是一种不对称性,使得在分散的人B中找到目标A可以比找到A中的B.为了阐明对视觉搜索中的不对称负责的机制,我们提出了一种占据目标的计算模型和将搜索图像作为输入,并在找到目标之前产生一系列眼睛移动。该模型将偏心依赖性视觉识别与目标相关的自上而下的提示集成在一起。我们将六种范式搜索任务中的人类行为与人类显示不对称的案式进行比较。如果没有先前接触刺激或任务特定的培训,则该模型提供了搜索不对称的合理机制。我们假设搜索不对称的极性来自自然环境的经验。我们通过培训模型在想象中的增强版本的模型进行测试,其中自然图像的偏差被移除或逆转。根据训练协议,搜索不对称的极性消失或被改变。本研究强调了神经网络模型可以出现古典感知特性如何,而无需特定于任务培训,而是由于馈送到模型的发育饮食的统计特性。所有源代码和数据都在https://github.com/kreimanlab/visualsearchaseSearmmetry上公开使用。
translated by 谷歌翻译
Visual representations can be defined as the activations of neuronal populations in response to images. The activation of a neuron as a function over all image space has been described as a "tuning landscape". As a function over a high-dimensional space, what is the structure of this landscape? In this study, we characterize tuning landscapes through the lens of level sets and Morse theory. A recent study measured the in vivo two-dimensional tuning maps of neurons in different brain regions. Here, we developed a statistically reliable signature for these maps based on the change of topology in level sets. We found this topological signature changed progressively throughout the cortical hierarchy, with similar trends found for units in convolutional neural networks (CNNs). Further, we analyzed the geometry of level sets on the tuning landscapes of CNN units. We advanced the hypothesis that higher-order units can be locally regarded as isotropic radial basis functions, but not globally. This shows the power of level sets as a conceptual tool to understand neuronal activations over image space.
translated by 谷歌翻译
神经网络经常将许多无关的概念包装到一个神经元中 - 一种令人困惑的现象被称为“多疾病”,这使解释性更具挑战性。本文提供了一个玩具模型,可以完全理解多义,这是由于模型在“叠加”中存储其他稀疏特征的结果。我们证明了相变的存在,与均匀多型的几何形状的令人惊讶的联系以及与对抗性例子联系的证据。我们还讨论了对机械解释性的潜在影响。
translated by 谷歌翻译
神经记录的进展现在在前所未有的细节中研究神经活动的机会。潜在的变量模型(LVMS)是用于分析各种神经系统和行为的丰富活动的有希望的工具,因为LVM不依赖于活动与外部实验变量之间的已知关系。然而,目前缺乏标准化目前阻碍了对神经元群体活性的LVM进行的进展,导致采用临时方式进行和比较方法。为协调这些建模工作,我们为神经人群活动的潜在变量建模介绍了基准套件。我们从认知,感官和机动领域策划了四种神经尖峰活动的数据集,以促进适用于这些地区各地的各种活动的模型。我们将无监督的评估视为用于评估数据集的模型的共同框架,并应用几个显示基准多样性的基线。我们通过评估释放此基准。 http://neurallatents.github.io.
translated by 谷歌翻译
了解网格单元如何执行路径集成计算仍然是一个根本的问题。在本文中,我们对网格单元进行了对路径集成的一般表示模型的理论分析,其中2D自身位被编码为更高的尺寸向量,并且通过向量的一般转换表示2D自动。我们确定转型的两个条件。一个是路径集成所必需的组表示条件。另一个是一种各向同性的缩放条件,可确保局部共形地嵌入,使得向量表示中的误差符合在2D自身位置中的误差。然后,我们调查最简单的转换,即线性变换,将其显式代数和几何结构揭示为矩阵旋转,并探索各向同性缩放条件与特殊类六角网格图案之间的连接。最后,通过基于优化的方法,我们可以学习六边形网格模式,该网格图案在啮齿动物大脑中共享网格细胞的相似性质。学习模型能够准确地长距离路径集成。代码可在https://github.com/ruiqigao/grid-cell-path中获得。
translated by 谷歌翻译
在人类机器人的相互作用中,眼球运动在非语言交流中起着重要作用。但是,控制机器人眼的动作表现出与人眼动物系统相似的性能仍然是一个重大挑战。在本文中,我们研究了如何使用电缆驱动的驱动系统来控制人眼的现实模型,该系统模仿了六个眼外肌肉的自由度。仿生设计引入了解决新的挑战,最值得注意的是,需要控制每种肌肉的支撑,以防止运动过程中的紧张感损失,这将导致电缆松弛和缺乏控制。我们构建了一个机器人原型,并开发了一个非线性模拟器和两个控制器。在第一种方法中,我们使用局部衍生技术线性化了非线性模型,并设计了线性 - 季度最佳控制器,以优化计算准确性,能量消耗和运动持续时间的成本函数。第二种方法使用复发性神经网络,该神经网络从系统的样本轨迹中学习非线性系统动力学,以及一个非线性轨迹优化求解器,可最大程度地减少相似的成本函数。我们专注于具有完全不受限制的运动学的快速saccadic眼球运动,以及六根电缆的控制信号的生成,这些电缆同时满足了几个动态优化标准。该模型忠实地模仿了人类扫视观察到的三维旋转运动学和动力学。我们的实验结果表明,尽管两种方法都产生了相似的结果,但非线性方法对于未来改进该模型的方法更加灵活,该模型的计算是线性化模型的位置依赖性偏向和局部衍生物的计算变得特别乏味。
translated by 谷歌翻译
大脑通过其复杂的尖峰网络的网络有效地执行非线性计算,但这是如何难以捉摸的。虽然可以在尖峰神经网络中成功实现非线性计算,但这需要监督培训,并且产生的连接可能很难解释。相反,可以用尖峰编码网络(SCN)框架直接导出和理解线性动力系统形式的任何计算的所需连通性。这些网络还具有生物学上的现实活动模式,对细胞死亡具有高度稳健的。在这里,我们将SCN框架扩展到直接实施任何多项式动态系统,而无需培训。这导致需要混合突触类型(快速,慢,乘法)的网络,我们术语乘以乘法峰值编码网络(MSCN)。使用MSCN,我们演示了如何直接导出几个非线性动态系统所需的连通性。我们还展示了如何执行高阶多项式,其中耦合网络仅使用配对乘法突触,并为每个突触类型提供预期的连接数。总体而言,我们的作品展示了一种新的用于在尖峰神经网络中实现非线性计算的新方法,同时保持标准SCNS(鲁棒性,现实活动模式和可解释连接)的吸引力特征。最后,我们讨论了我们方法的生物合理性,以及这种方法的高准确度和鲁棒性如何对神经形态计算感兴趣。
translated by 谷歌翻译
预测性编码提供了对皮质功能的潜在统一说明 - 假设大脑的核心功能是最小化有关世界生成模型的预测错误。该理论与贝叶斯大脑框架密切相关,在过去的二十年中,在理论和认知神经科学领域都产生了重大影响。基于经验测试的预测编码的改进和扩展的理论和数学模型,以及评估其在大脑中实施的潜在生物学合理性以及该理论所做的具体神经生理学和心理学预测。尽管存在这种持久的知名度,但仍未对预测编码理论,尤其是该领域的最新发展进行全面回顾。在这里,我们提供了核心数学结构和预测编码的逻辑的全面综述,从而补充了文献中最新的教程。我们还回顾了该框架中的各种经典和最新工作,从可以实施预测性编码的神经生物学现实的微电路到预测性编码和广泛使用的错误算法的重新传播之间的紧密关系,以及对近距离的调查。预测性编码和现代机器学习技术之间的关系。
translated by 谷歌翻译
在人类和其他动物中分类的众所周知的感知后果称为分类感知,是由类别内部压缩和类别分离之间的特别特征:两个项目,在输入空间内,如果它们属于与属于不同类别的类别相同。在这里阐述认知科学的实验和理论结果,我们在这里研究人工神经网络中的分类效果。我们结合了利用互联网信息量的理论分析,以及关于增加复杂性的网络的一系列数值模拟。这些形式和数值分析提供了深层层内神经表示的几何形状的见解,随着类别边界附近的空间膨胀,远离类别边界。我们通过使用两个互补方法调查分类表示:通过不同类别的刺激之间的变形连续进行动态物理学和认知神经科学的一种模仿实验,而另一个介绍网络中的每层的分类指数,量化的分类指数量化了神经人口水平的类别。我们展示了类别学习的浅层和深度神经网络,自动诱导分类感知。我们进一步表明层更深,分类效果越强。作为我们研究的结果,我们提出了辍学正规化技术不同启发式实践的效果的相干观点。更一般地,我们的观点在神经科学文献中发现回声,坚持根据所学习的神经表示的几何形状的任何给定层中的噪声对噪声的差异影响,即该几何形状如何反映类别的结构。
translated by 谷歌翻译