我们介绍了一种基于功能空间上的近似贝叶斯推理而不是深度神经网络参数的有监督连续学习的新方法。我们使用通过将神经网络的最后一层的权重视为随机和高斯分布而获得的高斯过程。用于连续学习的功能正则化自然地通过以顺序方式应用变分稀疏GP推理方法来遇到新任务。在该过程的每个步骤中,构造当前任务的概要,其包括(i)诱导输入和(ii)在这些输入处的函数值的后验分布。本摘要通过出现在变分下界中的Kullback-Leiblerregularisation术语来定期学习未来任务,并减少灾难性遗忘的影响。我们充分发展了方法理论,并证明了它在分类数据集中的有效性,如Split-MNIST,Permuted-MNIST和Omniglot。
translated by 谷歌翻译
神经过程(NPs)(Garnelo等2018a; b)通过学习来回归以将观察到的输入 - 输出对的上下文集映射到分布式回归函数。每个函数都根据上下文对输出的分布进行建模。 NP具有有效拟合数据的优势,具有上下文输入 - 输出对数量的线性复杂度,并且可以学习一大类条件分布;它们学习以仲裁集的上下文集为条件的预测分布。尽管如此,我们还是表明NPs存在一个基本的缺点,即在观察到的数据条件的输入上给出了不准确的预测。我们通过将注意力集中到NP来解决这个问题,允许每个输入位置参与预测的相关上下文点。我们证明,这极大地提高了预测的准确性,显着加快了训练速度,并扩展了可以建模的功能范围。
translated by 谷歌翻译
持续学习是在保护旧知识的同时学习新任务或知识的问题,并且理想地从旧体验中推广以更快地学习新任务。随机梯度下降训练的神经网络在连续训练具有不同数据分布的新任务时经常降级旧任务。这种被称为灾难性遗忘的现象被认为是学习非固定数据或新任务序列的主要障碍,并且阻止网络不断积累知识和技能。我们在强化学习的背景下研究这个问题,在一个代理暴露于序列中的任务的位置。与大多数其他工作不同,我们没有为任务边界模型提供明确的指示,这是学习代理暴露出连续经验的最普遍情况。虽然最近提出了各种抵消灾难性遗忘的方法,但我们探索了一种直截了当,一般而且看似被忽视的解决方案 - 使用经验重放缓冲过去的事件 - 结合政策上和政策外的学习,利用行为克隆。我们表明,这种策略仍然可以快速学习新任务,但可以大大减少Atari和DMLab域中的灾难性遗忘,甚至可以匹配需要任务同等性的方法的性能。当缓冲存储受到约束时,我们确认随机丢弃数据的简单机制允许有限大小的缓冲区最常用以及无条件缓冲区。
translated by 谷歌翻译
神经网络(NN)是参数化函数,可以通过梯度下降来调整以近似标记的高精度数据集合。另一方面,高斯过程(GP)是定义可能函数的分布的概率模型,并且通过概率推理的规则根据数据进行更新。 GP是概率性的,数据有效的和灵活的,但是它们也是计算密集型的,因此它们的适用性受到限制。我们介绍了一类神经潜变量模型,我们称之为神经过程(NPs),结合了两个世界中最好的。与GP类似,NP定义了函数的分布,能够适应新的观察,并且可以估计其预测中的不确定性。与NN一样,NP在培训评估期间具有计算效率,但也学会使其先验适应数据。我们展示了NP在一系列学习任务中的表现,包括回归和优化,并与文献中的相关模型进行比较和对比。
translated by 谷歌翻译
我们为连续学习领域引入了一个概念上简单且可扩展的框架,其中任务是按顺序学习的。我们的方法在参数数量上是恒定的,旨在保持以前遇到的任务的性能,同时加速后续问题的学习进度。这是通过训练具有两个组件的网络来实现的:能够解决先前遇到的问题的知识库,其连接到用于有效地学习当前任务的活动列。在学习新任务后,活动列被提炼到知识库中,注意保护以前获得的任何技能。这种主动学习(进展)循环然后进行整合(压缩)不需要架构增长,不需要访问或存储先前的数据或其他任何特定的参数。我们展示了手写字母顺序分类以及双向强化学习领域的进展和压缩方法:Atari游戏和3D迷宫导航。
translated by 谷歌翻译
Reading comprehension (RC)---in contrast to information retrieval---requiresintegrating information and reasoning about events, entities, and theirrelations across a full document. Question answering is conventionally used toassess RC ability, in both artificial agents and children learning to read.However, existing RC datasets and tasks are dominated by questions that can besolved by selecting answers using superficial information (e.g., local contextsimilarity or global term frequency); they thus fail to test for the essentialintegrative aspect of RC. To encourage progress on deeper comprehension oflanguage, we present a new dataset and set of tasks in which the reader mustanswer questions about stories by reading entire books or movie scripts. Thesetasks are designed so that successfully answering their questions requiresunderstanding the underlying narrative rather than relying on shallow patternmatching or salience. We show that although humans solve the tasks easily,standard RC models struggle on the tasks presented here. We provide an analysisof the dataset and the challenges it presents.
translated by 谷歌翻译
本文评估了14种民族英语的全球范围方言识别,作为研究句法变异的手段。该文件提出了三项主要贡献:(i)引入数据驱动的语言映射作为选择国家品种清单的方法,包括在任务中; (ii)使用语法感应产生大量动态的句法特征,而不是关注一些手工选择的特征,如功能词; (iii)比较网络语料库和社交媒体语料库中的模型,以便衡量跨越各部分的句法变异的稳健性。
translated by 谷歌翻译
无监督的词性(POS)标记通常被认为是一个聚类问题,但实际的标记者也需要对其群集进行文本{地面}。通常需要参考标记数据,这是一种低资源语言可能没有的奢侈品。在这项工作中,我们描述了一种用于低资源无监督的POS标记的方法,该方法产生完全接地的输出并且需要没有标记的训练数据。我们找到了Brown等人的经典方法。 (1992)在我们的用例中很好地聚类,并采用基于解密的方法来实现。该方法假设一系列簇ID是“密文”并且寻找将揭示POS序列的POS标签到簇ID映射。 Weshow本质上认为,尽管任务有困难,我们仍然可以在各种语言中获得合理的表现。我们还在本质上表明,将我们的POS标签器整合到名称标签器中可以在僧伽罗语和基尼亚卢旺达语中获得最先进的标签性能,两种语言几乎没有标记的POS数据。我们进一步证明了ourtagger的实用性,将其纳入了马洛巴(Ammar等人,2016)依赖解析器模型的真正“零资源”变体中,该模型消除了当前对多语言资源的依赖以及新语言的黄金POS标签。实验表明,包括我们的当黄金POS标签不可用时,tagger弥补了大部分准确性。
translated by 谷歌翻译
我们提出了神经图 - 基于深度神经网络的表示,用于理解音频信号,顾名思义,它基于通过自然结构学习的嵌入将音频信号转换为密集,紧凑的表示。通过一系列探测信号,我们展示了我们的代表性如何封装音高,音色和基于节奏的信息以及其他属性。该表示提出了一种用于在任意长的音频信号中揭示有意义的关系的方法,该信号不易被现有算法表示。这有可能在音频理解,音乐推荐,元数据提取等众多应用中得到广泛应用。
translated by 谷歌翻译
在本文中,我们提出了一种新的算法,它结合使用神经分类器的多上下文termembeddings,我们测试这种方法在基于语料库的术语集扩展的用例。此外,我们提出了一种新的和独特的基于语料库的术语集扩展算法的内在评估。我们证明,在这个数据集上,我们的算法在最佳基线上提供了多达5个平均精确度。
translated by 谷歌翻译