在这里,我们提出了一种新的方法来调节SampleRNN生成模型进行语音转换(VC)。用于VC的传统方法通过在源声学特征和目标声学特征之间进行转换来修改所接受的说话者身份。我们的方法侧重于保留语音内容,并依赖于生成网络来学习语音风格。我们首先使用多说话者语音语料库训练以语言特征,音高轮廓和说话人身份为条件的多扬声器样本RNNN模型。使用从源扬声器提取的语言特征和音调轮廓以及目标说话者身份来生成语音转换语音。我们证明我们的系统能够进行多对多语音转换,而无需并行数据,从而实现广泛的应用。主观评价表明,超越传统的VC方法。
translated by 谷歌翻译
We propose a distributed architecture for deep reinforcement learning atscale, that enables agents to learn effectively from orders of magnitude moredata than previously possible. The algorithm decouples acting from learning:the actors interact with their own instances of the environment by selectingactions according to a shared neural network, and accumulate the resultingexperience in a shared experience replay memory; the learner replays samples ofexperience and updates the neural network. The architecture relies onprioritized experience replay to focus only on the most significant datagenerated by the actors. Our architecture substantially improves the state ofthe art on the Arcade Learning Environment, achieving better final performancein a fraction of the wall-clock training time.
translated by 谷歌翻译
一些真实世界的域名最好被描述为单一任务,但对于其他人而言,这种观点是有限的。相反,一些任务不断增加不复杂性,与代理人的能力相结合。在不断学习中,也被认为是终身学习,没有明确的任务边界或课程。随着学习代理变得越来越强大,持续学习仍然是阻碍快速进步的前沿之一。为了测试连续学习能力,我们考虑具有明确的任务序列和稀疏奖励的具有挑战性的3D域。我们提出了一种名为Unicorn的新型代理体系结构,它展示了强大的持续学习能力,并在拟议的领域中表现出优秀的几个基线代理。代理通过使用并行的非策略学习设置,有效地共同表示和学习多个策略来实现这一目标。
translated by 谷歌翻译
The deep reinforcement learning community has made several independentimprovements to the DQN algorithm. However, it is unclear which of theseextensions are complementary and can be fruitfully combined. This paperexamines six extensions to the DQN algorithm and empirically studies theircombination. Our experiments show that the combination providesstate-of-the-art performance on the Atari 2600 benchmark, both in terms of dataefficiency and final performance. We also provide results from a detailedablation study that shows the contribution of each component to overallperformance.
translated by 谷歌翻译
Deep reinforcement learning (RL) has achieved several high profile successesin difficult decision-making problems. However, these algorithms typicallyrequire a huge amount of data before they reach reasonable performance. Infact, their performance during learning can be extremely poor. This may beacceptable for a simulator, but it severely limits the applicability of deep RLto many real-world tasks, where the agent must learn in the real environment.In this paper we study a setting where the agent may access data from previouscontrol of the system. We present an algorithm, Deep Q-learning fromDemonstrations (DQfD), that leverages small sets of demonstration data tomassively accelerate the learning process even from relatively small amounts ofdemonstration data and is able to automatically assess the necessary ratio ofdemonstration data while learning thanks to a prioritized replay mechanism.DQfD works by combining temporal difference updates with supervisedclassification of the demonstrator's actions. We show that DQfD has betterinitial performance than Prioritized Dueling Double Deep Q-Networks (PDD DQN)as it starts with better scores on the first million steps on 41 of 42 gamesand on average it takes PDD DQN 83 million steps to catch up to DQfD'sperformance. DQfD learns to out-perform the best demonstration given in 14 of42 games. In addition, DQfD leverages human demonstrations to achievestate-of-the-art results for 11 games. Finally, we show that DQfD performsbetter than three related algorithms for incorporating demonstration data intoDQN.
translated by 谷歌翻译
我们研究了关系图注意网络,这是一类利用非关系图关注机制来结合关系信息的模型,将这些方法应用于更广泛的问题。对这些模型进行了充分的评估,并且对已建立的基准进行了比较。为了提供有意义的比较,我们重新训练关系图形卷积网络,即关系图注意网络的光谱对应物,并在相同条件下对它们进行评估。我们发现关系图注意网络的性能比预期的要差,尽管有些配置对分子特性建模有一定的帮助。我们提供了为什么会这样做的见解,并建议评估策略的修改,以及调查未来工作的方向。
translated by 谷歌翻译
生成对抗网络(GAN)中最先进的方法可以学习从一个图像域到另一个具有非配对图像数据的映射函数。但是,这些方法通常会产生伪影,并且只能转换低级信息,但无法传输图像的高级语义部分。原因主要是发生器不具备检测图像中最具辨别力的语义部分的能力,从而使得生成的图像具有低质量。为了解决这一局限性,本文提出了一种新颖的注入引导生成对抗网络(AGGAN),它可以检测出最具辨别力的语义对象,并最大限度地减少语义操作问题中不需要部分的变化,而无需使用额外的数据和模型。 AGGAN中的注意力引导发生器能够通过内置的注意机制产生注意力掩模,然后将输入图像与注意力掩模融合,以获得高质量的目标图像。此外,我们提出了一种新的注意力引导的鉴别器,它只考虑了上学地区。建议的AGGAN通过端到端的方式进行训练,具有对抗性损失,周期一致性丢失,像素丢失和注意力损失。定性和定量结果均表明我们的方法可以比现有模型更有效地生成更清晰,更准确的图像。
translated by 谷歌翻译
计算社区联盟(CCC)于2018年4月23日至24日在华盛顿举办了一次关于“机器人材料”的研讨会。该工作室是一系列跨学科研讨会的第二次,旨在将我们的材料概念转变为“机器人” “,这有能力感知和影响他们的环境。 2017年3月10日至12日在科罗拉多大学举办的第一次研讨会的成果已经在一份有远见的论文(Correll,2017)中进行了总结,并确定了“机器人材料”的关键技术挑战,即能够以最低限度创造智能功能。依靠无线电力和通信的附加布线。第二次研讨会的目的是将这些研究结果转化为政府行动的建议。计算将成为未来材料系统的重要组成部分,并且将以单独使用机械或化学过程无法实现的方式分析,更改,存储和交流状态。大多数材料科学家都不清楚“计算”是什么以及可能性是什么,而计算机科学家基本上没有意识到最近所谓的主动和智能材料的进步。目前这种差距在缩小,计算机科学家们正在积极研究新型基板,如忆阻器和其他神经形态计算设备。进一步追求这些想法将需要强调化学家,工程师和计算机科学家之间的跨学科合作,可能会使人类进入一个新的物质时代,这个时代同样具有破坏性,从石头到塑料时代。
translated by 谷歌翻译
公平性越来越被认为是机器学习系统的关键组成部分。然而,正是这些系统所采用的基础数据经常反映歧视,这表明存在数据库修复问题。现有的公平处理依赖于可能被统计异常所欺骗的统计相关性,例如辛普森的悖论。基于因果关系的公平定义的提议可以正确地模拟一些情况,但是它们需要指定潜在的因果模型。在本文中,我们将这种情况形式化为数据库修复问题,在公允分类器的条件下,根据完整的因果模型提供了可接受的变量。我们表明这些条件正确地捕获了微妙的公平违规行为。然后,我们使用这些条件作为数据库修复算法的基础,该算法为在其训练标签上训练的分类器提供可证明的公平性保证。我们在实际数据上评估我们的算法,证明了对文献中提出的多重公平度量的现有技术的改进,同时保留了高效用。
translated by 谷歌翻译
深度神经网络(DNN)已经在许多基准和问题域中产生了最先进的结果。但是,DNN的成功取决于其体系结构和超参数的正确配置。这样的配置是困难的,因此,DNN通常不会用于其充分的潜力。此外,商业应用中的DNN通常需要满足现实世界的设计约束,例如参数的大小或数量。 Tomake配置更容易,自动机器学习(AutoML)系统用于深度学习已经开发,主要侧重于优化超参数。本文将AutoML向前推进了一步。它引入了一种名为LEAF的进化AutoML框架,它不仅优化了超参数,还优化了网络架构和网络规模。 LEAF使用最先进的进化算法(EA)和分布式计算框架。医学图像分类和自然语言分析的实验结果表明,该框架可用于实现最先进的性能。特别是,LEAF证明了架构优化提供了超过超参数优化的显着推动,并且可以在性能较低的同时最小化网络。因此,LEAF为人工智能的民主化和改进奠定了基础,并使AI在未来的应用中具有实用性。
translated by 谷歌翻译