深度神经网络(DNN)在多个处理阶段转换刺激,以产生可用于解决复杂任务的表示,例如图像中的对象识别。然而,完全理解他们如何实现这一目标仍然是难以捉摸的。生物神经网络的复杂性基本上超过了DNN的复杂性,使得理解他们所学习的表示更具挑战性。因此,机器学习和计算神经科学都面临着共同的挑战:我们如何分析它们的表示以理解它们如何解决互补问题?我们回顾了计算神经科学家开发的数据分析概念和技术如何用于分析DNN中的表示,反过来,最近开发的DNN分析技术如何有助于理解生物神经网络中的表示。我们探索了两个领域之间协同作用的机会,例如使用DNN作为神经科学的计算机模型系统,以及这种协同作用如何导致关于生物神经网络的操作原理的新假设。
translated by 谷歌翻译
神经网络是否可以学习抽象推理,或者它们是否只是在表面统计上是最近辩论的话题。在这里,我们提出了adataset和挑战,旨在探索抽象推理,受到众所周知的人类智商测试的启发。为了应对这一挑战,模型必须应对各种一般化的“制度”,其中训练和测试数据以不同的方式定义。我们展示了诸如ResNets之类的流行模型,即使在培训和测试集的差别很小的情况下也是如此,并且我们提出了一种新颖的架构,其结构旨在鼓励推理,但效果明显更好。当我们改变测试问题和训练数据的不同方式时,我们发现我们的模型在某些形式的泛化中显然是有效的,但在其他形式上则显着较弱。我们进一步表明,如果模型的预测符合其答案的符号解释,那么该模型的推广能力会显着提高。总而言之,我们引入并探索了在神经网络中测量和诱导更强的抽象推理的方法。我们可自由使用的数据集应该推动这方面的进一步发展。
translated by 谷歌翻译
通过强化学习(RL)在人工智能方面的最新进展已经在日益复杂的单一代理环境和双人回合制游戏中取得了巨大成功。然而,真实世界包含多个代理,每个代理都独立学习和行动以与其他代理进行合作和竞争,反映这种复杂程度的环境仍然是一个难题。在这项工作中,我们首次演示了一个代理可以在一个流行的3D多人第一人称视频游戏Quake III Arena夺旗中实现人类级别,仅使用像素和游戏点作为输入。这些结果是通过一个新颖的两层优化过程,其中独立RL代理的人口从数千个并行匹配中同时训练,其中代理一起玩并且在随机生成的环境中彼此相对。群体中的每个代理人学习其自己的内部奖励信号以补充来自获胜的稀疏延迟奖励,并且使用新颖的时间分层表示来选择动作,该代表可以使代理在多个时间尺度下进行推理。在游戏过程中,这些代理人基于丰富的学习表示来显示类似人的行为,例如导航,跟随和保护,该学习表示被示出为编码高级游戏知识。在广泛的锦标赛风格评估中,训练有素的球员超过了作为队友和对手的强大的人类球员的胜利率,并且证明远比现有的最先进的特工更强。这些结果表明人工智能的能力显着提升,让我们更接近人类智慧的目标。
translated by 谷歌翻译
比较不同的神经网络表示和确定表示如何随时间演变仍然是在我们理解神经网络功能的过程中挑战开放性问题。比较神经网络中的表示基本上是困难的,因为表示的结构很大,甚至跨越相同任务训练的网络组,以及训练过程。在这里,我们开发了投影加权CCA(典型相关分析)作为理解神经网络的工具,建立了SVCCA,这是最近提出的方法。我们首先改进了核心方法,展示了如何区分信号和噪声,然后将这种技术应用于一组CNN之间的比较,证明了网络概括地融合到比类似网络更相似的表示,更广泛的网络汇聚到比narrownetworks更类似的解决方案并且具有相同拓扑但不同学习率的训练有素的网络会聚到具有不同表示的不同群集。我们还研究了RNN在训练和连续时间步长中的表征动态,发现RNN在训练过程中以自下而上的模式收敛,并且隐藏状态在序列过程中是高度可变的,即使在考虑线性变换时也是如此。总之,这些结果为CNN和RNN的功能提供了新的见解,并证明了使用CCA来理解表示的效用。
translated by 谷歌翻译
To optimize a neural network one often thinks of optimizing its parameters, but it is ultimately a matter of optimizing the function that maps inputs to outputs. Since a change in the parameters might serve as a poor proxy for the change in the function, it is of some concern that primacy is given to parameters but that the correspondence has not been tested. Here, we show that it is simple and computationally feasible to calculate distances between functions in a L 2 Hilbert space. We examine how typical networks behave in this space, and compare how parameter 2 distances compare to function L 2 distances between various points of an optimization trajectory. We find that the two distances are nontrivially related. In particular, the L 2 // 2 ratio decreases throughout optimization, reaching a steady value around when test error plateaus. We then investigate how the L 2 distance could be applied directly to optimization. We first propose that in multitask learning, one can avoid catastrophic forgetting by directly limiting how much the input/output function changes between tasks. Secondly, we propose a new learning rule that constrains the distance a network can travel through L 2-space in any one update. This allows new examples to be learned in a way that minimally interferes with what has previously been learned. These applications demonstrate how one can measure and regularize function distances directly, without relying on parameters or local approximations like loss curvature.
translated by 谷歌翻译
Over the last several years, the use of machine learning (ML) in neuroscience has been rapidly increasing. Here, we review ML's contributions, both realized and potential, across several areas of systems neuroscience. We describe four primary roles of ML within neuroscience: 1) creating solutions to engineering problems, 2) identifying predictive variables, 3) setting benchmarks for simple models of the brain, and 4) serving itself as a model for the brain. The breadth and ease of its applicability suggests that machine learning should be in the toolbox of most systems neuroscientists. Introduction:
translated by 谷歌翻译
在本文中,我们提出了TauRieL和目标旅行商问题(TSP),因为它在理论和应用科学中具有广泛的适用性。 TauRieLutilizes一个由演员评论家启发的架构,它采用普通的feedforwardnets来获取策略更新向量$ v $。然后,我们使用$ v $来改进生成策略的状态转换矩阵。此外,状态转换矩阵允许求解器从预先计算的解决方案(例如最近邻居)初始化。在在线学习环境中,TauRieL统一了训练和搜索,它可以在几秒钟内产生近乎最佳的结果。在演员评论体系结构中对神经网络的输入是原始的2-Dinputs,这个决定背后的设计理念是保持神经网络比具有宽嵌入的体系结构小,其中省略了嵌入的任何分布式表示。因此,与最先进的离线技术相比,TauRieL生成的TSP解决方案比TSP实例快两个数量级。 6.1 \%在最坏的情况下。
translated by 谷歌翻译
我们考虑使用仅通过去噪函数指定的先前噪声测量来估计矢量的问题。最近关于插头和游戏先验(PnP)和正则化去噪(RED)的研究表明,在一系列成像任务中,这些先验的评估者具有最先进的性能。在这项工作中,我们开发了一种新的块坐标RED算法,它将大规模估计问题分解为一系列未知变量的一小部分更新。我们从理论上分析了算法的收敛性,并讨论了它与传统近似优化的关系。我们的分析补充并扩展了基于RED的估算方法的最新理论结果。我们使用几个基于卷积神经网络(CNN)降噪器的降噪器先验来数值验证我们的方法。
translated by 谷歌翻译
差异隐私关注预测质量,同时测量对信息包含在数据中的个人的隐私影响。我们考虑与引起结构化稀疏性的规则制定者的差异私人风险最小化问题。已知这些正则化器是凸的,但它们通常是不可微分的。我们分析了标准的不同私有算法,例如输出扰动,Frank-Wolfe和目标扰动。输出扰动是一种差异私有算法,众所周知,它可以很好地降低强凸的风险。以前的工作已经导出了与维度无关的超额风险界限。在本文中,我们假设一类特定的凸但非光滑正则化器,它们导致广义线性模型的结构化稀疏性和损失函数。我们还考虑差异私有Frank-Wolfeal算法来优化风险最小化问题的双重性。我们得出这两种算法的过度风险界限。两个边界都取决于双范数的单位球的高斯宽度。我们还表明,风险最小化问题的客观扰动等同于双优化问题的输出扰动。这是在差异隐私的背景下分析风险最小化问题的双重优化问题的第一部作品。
translated by 谷歌翻译
今天的高风险对抗性互动让攻击者不断突破不断改进的安全措施。欺骗通过误导攻击者做出次优决策来减轻防御者的损失。为了正当理由欺骗,我们引入了特征欺骗游戏(FDG),这是一个独立于领域的游戏理论模型,并提出了学习和规划框架。我们做出以下贡献。 (1)我们表明,我们可以使用来自适度数量的欺骗策略的数据统一学习对手的偏好。 (2)我们提出了一种近似算法,用于找出最优欺骗策略,并证明该问题是NP难的。 (3)我们进行了全面的实验,以实证验证我们的方法和结果。
translated by 谷歌翻译