三年前,我们发布了Omniglot数据集,用于开发更像人类的学习算法。 Omniglot是一次性学习挑战,受人们如何从一个或几个例子中学习新概念的启发。随着数据集,我们提出了一套五个挑战任务和基于概率程序归纳的计算模型。计算模型虽然功能强大,但并不是Omniglot的最后一句话。我们希望机器学习社区能够建立我们的工作并开发新方法来应对挑战。在此期间,我们很高兴看到Omniglot的广泛采用和显着的技术进步。在一次性分类方面取得了真正的进展,但由于研究人员采用了不同的分裂和训练程序,使得任务更容易,因此难以衡量。其他四项任务虽然是人类概念理解的重要组成部分,但受到的关注却少得多。我们回顾了迄今为止的进展,并得出结论认为,神经网络与Omniglot上的人类概念学习相差甚远,这一挑战需要用单一模型执行所有任务。我们还讨论了促进进一步发展的新任务。
translated by 谷歌翻译
变压器网络具有学习长期依赖性的潜力,但在语言建模的环境中受到固定长度上下文的限制。作为解决方案,我们提出了一种新颖的神经结构,\ textit {Transformer-XL},thatenables Transformer可以学习超过固定长度的依赖性而不会破坏时间连贯性。具体地说,它由段级复现机制和新颖的位置编码方案组成。我们的方法不仅可以捕获长期依赖性,还可以解决上下文碎片问题。因此,Transformer-XL学习的依赖性比RNN长80%以上,比香草变形金刚长450%,在短序列和长序列上都能获得更好的性能,在评估过程中比香草变压器快达1,800倍以上。此外,我们在enwiki8上将bpc / perplexity的最新(SoTA)结果从1.06提高到0.99,在text8上从1.13提高到1.08,在WikiText-103从20.5提高到18.3,从23.7提高到21.8。十亿字,Penn Treebank上的55.3到54.5(没有微调)。我们的代码,预训练模型和超参数在Tensorflow和PyTorch中均可用。
translated by 谷歌翻译
诸如循环网络的序列生成模型可以使用一组学习算法来训练。例如,最大似然学习是简单而有效的,但却遭受暴露偏差问题。像政策梯度这样的强化学习可以解决问题,但可能会限制探索效率。还从不同的角度开发了各种其他算法,例如RAML,SPG和数据噪声。本文建立了这些算法之间的正式联系。我们提出了时间化的熵正则化策略优化公式,并表明明显不同的算法都可以作为框架的特殊实例重新制定,唯一的区别是奖励函数的配置和一些超参数。统一解释提供了对探索和学习效率的不同属性的系统观点。此外,在此框架的基础上,提出了一种新的算法,在现有的算法中进行动态插值,以提高学习效果。机器翻译和文本摘要的实验证明了该算法的优越性。
translated by 谷歌翻译
我们通过新的架构设计研究了缓解GAN训练过程中的不稳定性问题。 minimax和maximin目标值之间的差异可以作为替代梯度下降在GAN优化中遇到的困难的代理。在这项工作中,我们给出了关于GAN的多发电机架构的好处的新结果。我们表明,当生成器的数量随着$ \ widetilde {O}(1 / \ epsilon)$的增加而增加时,minimax间隙缩小到$ \ epsilon $。这改善了$ \ widetilde {O}(1 / \ epsilon ^ 2)$的最佳结果。 ourtechniques的核心是Shapley-Folkman引理对于通用minimax问题的一种新颖应用,其中在文献中只有当目标函数局限于aconstraint优化问题的拉格朗日函数时才知道该技术。我们提出的Stackelberg GAN在合成数据集和现实数据集中都可以进行实验,与先前的基准数据集上的多生成器GAN相比,Fr \'echetInception Distance提高了$ 14.61 \%$。
translated by 谷歌翻译
构建能够智能地探索其环境的代理是具有挑战性的开放性问题。在本文中,我们向理解如何理解代理商政策的分层设计可以影响其勘探能力。首先,我们设计EscapeRoom环境,其中代理必须通过完成许多中间任务(\ emph {subgoals})来设置如何导航到出口,例如查找键或打开门。我们的环境是程序生成的,复杂性各不相同,这可以通过子目标的数量和它们之间的关系来控制。接下来,我们建议通过构建目标之间的依赖图并在图中随机游走的分析计算\ emph {hittingtimes}来测量每个环境的复杂性。我们凭经验评估了近端政策优化(PPO),其中包括稀疏和形状的奖励,policysketches的变体,以及类似于h-DQN的PPO(称为HiPPO)的分层版本。通过分析估计目标依赖图中的\ emph {命中时间}是环境复杂性的信息度量。我们推测结果应该适用于除导航之外的环境。最后,我们表明解决超出一定复杂程度的环境需要分层方法。
translated by 谷歌翻译
生成性对抗网络(GAN)可以在不同类型的数据上获得复杂数据分布的有前途的表现。在本文中,我们首先表明现有GAN算法的直接扩展不适用于点云,因为鉴别器所需的约束对于集合数据是未定义的。我们建议对GAN算法进行双重修改以学习生成点云(PC-GAN)。首先,我们通过学习分层和可解释的抽样过程,将来自分层贝叶斯建模和隐式生成模型的思想结合起来。我们方法的一个关键组成部分是我们为隐藏变量训练后验推理网络。其次,我们不是仅使用最先进的Wasserstein GAN目标,而是提出一个夹心目标,这导致比一般情况更严格的Wassersteindistance估计。使用双重形式。因此,PC-GAN定义了可以包含许多现有GAN算法的通用框架。我们对ModelNet40基准数据集的声明进行了验证。利用生成点云和真实网格之间的距离作为度量,我们发现通过夹心目标训练的PC-GAN比现有方法在测试数据上获得更好的结果。此外,作为副产品,PC-GAN学习点云的多种潜在表示,其可以与对象识别任务上的其他无监督学习算法实现竞争性能。最后,我们还提供了关于生成看不见的对象类和将图像转换为点云的研究,这展示了PC-GAN的引人注目的泛化能力和潜力。
translated by 谷歌翻译
许多机器学习问题涉及迭代地和交替地针对不同的参数集优化不同的任务目标。适当地调度任务目标或一组参数的优化通常对于收敛的质量是至关重要的。在本文中,我们介绍了AutoLoss,一个自动学习和确定优化计划的元学习框架。 AutoLoss提供了一种通用的方式来表示和学习元数据中的离散优化计划,允许在ML问题中动态和数据驱动的计划,涉及不同参数的交替更新或不同的损失目标。我们在四个ML任务上应用AutoLoss:d-ary二次回归,使用多层感知器(MLP)进行分类,使用GAN进行图像生成,以及使用多任务神经机器翻译(NMT)。我们展示了AutoLoss控制器能够捕获更好的优化计划的分布,从而在所有四个任务中实现更高的收敛质量。经过培训的AutoLosscontroller是可推广的 - 它可以指导和改进具有不同规范的新任务模型或不同数据集的学习。
translated by 谷歌翻译
现有的问答(QA)数据集无法训练QA系统执行复杂的推理并提供答案的解释。我们介绍HotpotQA,这是一个新的数据集,包含113k基于维基百科的问答对,有四个关键特征:(1)问题需要查找和推理多个支持文档才能回答; (2)问题多种多样,不受任何先前存在的知识库或知识模式的约束; (3)我们提供推理所需的句子级支持事实,允许QAsystems在强有力的监督下进行推理并解释预测; (4)我们提供了一种新型的事实比较问题来测试QA系统提取相关事实和进行必要比较的能力。我们证明HotpotQA对最新的QA系统具有挑战性,支持事实使模型能够提高性能并做出可解释的预测。
translated by 谷歌翻译
样式转移是在保持其语义内容的同时转移句子的属性(例如,形式)的任务。样式转移的关键挑战是在竞争目标之间取得平衡,一个是保持意义,另一个是为了提高风格转移的准确性。之前的研究已经确定意义保存的任务通常难以进行和评估。本文提出了两种最先进的传递模式的扩展,旨在提高风格转移中的意义保存。我们的评估表明,这些扩展有助于在提高传输准确性的同时提供更好的基础。
translated by 谷歌翻译
开放域问答(QA)正在从复杂的流水线系统发展到端到端的深度神经网络。已经开发了专门的神经模型,用于从单独的文本或单独的知识库(KB)中提取答案。在本文中,我们将看一个更实用的设置,即QA超过KB和实体链接文本的组合,当一个不完整的KB可用于大文本语料库时,这是合适的。基于图表表示学习的最新进展,我们提出了一种新的模型GRAFT-Net,用于从包含文本和KB实体和关系的特定问题子图中提取答案。我们为这个问题构建了一套基准测试任务,改变了问题的难度,培训数据的数量和KB的完整性。我们表明,当使用KB或单独的文本进行测试时,GRAFT-Net与最先进的技术竞争,并且在组合设置中大大优于现有方法。源代码可在https://github.com/OceanskySun/GraftNet上找到。
translated by 谷歌翻译