成立I4U联盟是为了促进联合进入NISTspeaker识别评估(SRE)。这种关节提交的最新版本在SRE 2018中,其中I4U提交是最佳表现系统之一。 SRE'18也标志着I4Uconsortium进入NIST SRE系列评估10周年。本文的主要目的是总结基于提交给SRE'18的各子系统及其融合的结果和经验教训。我们也有意提出一个共同观点,即我们在过去十年中从SRE'08到SRE'18见证了SRE参与者的进步,进展和主要范式转变。在这方面,除其他外,我们已经看到从超向量表示到深度说话人嵌入的范例转换,以及从信道补偿到领域适应的研究挑战的转变。
translated by 谷歌翻译
我们提出了一个新的CogQA框架,用于多跳问题回答inweb-scale文档。受认知科学中的双重过程理论的启发,该框架通过协调隐式提取模块(系统1)和显式推理模块(系统2)逐步在迭代过程中构建\ textit {认知图}。在给出准确答案的同时,我们的框架进一步提供了可解释的推理路径。具体而言,基于BERT和图形神经网络的实现有效处理了HotpotQAfullwiki数据集中的多跳推理问题的数百万个文档,在排行榜上获得了34.9的联合$ F_1 $得分,而最佳竞争对手的得分为23.6。
translated by 谷歌翻译
交通信号控制是一种新兴的应用场景,用于加强学习。除了作为影响人们通勤日常生活的重要问题之外,交通信号控制在适应动态交通环境和协调包括车辆和行人在内的数千名代理人方面对于强化学习提出了独特的挑战。现代强化学习成功的关键因素依赖于商品模拟器来生成大量用于学习的数据样本。然而,最常用的开源流量模拟器SUMO不能扩展到大型公路网和大流量,这阻碍了对交通场景的强化学习的研究。这促使我们创建一个新的流量模拟器CityFlow,它具有基本优化的数据结构和高效的算法。 CityFlow可以根据合成和真实数据支持灵活的道路网络和交通流量定义。它还提供了用户友好的强化学习界面。最重要的是,CityFlow比SUMO快20多倍,并且能够通过交互式渲染形式监控来支持全市范围的交通模拟。除了交通信号控制,CityFlow还可以作为其他交通研究的基础,并为智能交通领域的测试机器学习方法创造新的可能性。
translated by 谷歌翻译
由于以下原因,设计和运行卷积神经网络(CNN)并不容易:1)在给定架构的情况下,找到每层的最佳滤波器数量(即宽度)。 2)CNN的计算强度阻碍了在计算有限的设备上的部署。 Oracle Pruning设计用于从训练有素的CNN中删除不重要的滤波器,通过依次消融它们并评估模型来估计滤波器的重要性,从而提供高精度但遭受无法忍受的时间复杂性,并且需要给定的结果宽度但不能自动查找。为了解决这些问题,我们提出了近似Oracle过滤器修剪(AOFP),它以二进制搜索方式继续搜索最不重要的过滤器,通过随机屏蔽过滤器,累积产生的错误以及通过多个模型对模型进行微调来进行修剪尝试。 pathframework。由于AOFP能够在多个层上同时进行修剪,因此我们能够以可接受的时间成本,可忽略的准确性,无启发性知识,或重新设计能够实现高精度和更快推理的模型来获得现有的非常深的CNN。
translated by 谷歌翻译
我们能否在移动设备的延迟约束下自动设计具有最高图像分类精度的卷积网络(ConvNet)?用于ConvNet设计的神经架构搜索(NAS)是一个具有挑战性的问题,因为它具有组合的大型设计空间和搜索时间(至少200个GPU小时)。为了减轻这种复杂性,我们提出单路径NAS,一种可分离的NAS方法,用于在不到4小时内设计出设备效率高的ConvNets。 1.新的NAS公式:我们的方法引入了单路径,过度参数化的ConvNet,用共享卷积核参数编码所有架构决策。 2. NAS效率:我们的方法将NAS搜索成本降低到8个时期(30个TPU小时),即比以前的工作高出5,000倍。 3.在设备上进行图像分类:单路径NAS在ImageNet上具有74.96%的前1精度,在aPixel 1手机上具有79ms的推理延迟,与具有相似延迟(<80ms)的NAS方法相比,这是最先进的精度。
translated by 谷歌翻译
在本文中,我们提出了一个新的修复框架,用于恢复视频帧的丢失区域。与图像修复相比,在视频上执行该任务提出了新的挑战,例如如何保持时间一致性和空间细节,以及如何快速有效地处理任意输入视频大小和长度。为此,我们提出了一种新颖的深度学习架构,它结合了ConvLSTM和光流来模拟视频中的时空一致性。它还节省了大量的计算资源,使得我们的方法可以实时流媒体地处理具有更大帧大小和任意长度的视频。此外,为了从损坏的帧生成准确的光学流,我们提出了一个强大的流量生成模块,其中两个流源被馈送,并且流混合网络被训练以用于它们。我们进行了大量实验,以定性和定量评估我们在各种情况和不同数据集中的方法。实验结果表明,与最先进的修复方法相比,我们的方法更优越。
translated by 谷歌翻译
已经证明语法在神经机器翻译(NMT)中非常有效。先前的NMT模型通过表示来自训练有素的解析系统的1最佳树输出来集成语法,例如,可能遭受错误传播的代表性树-RNN和树线化方法。在这项工作中,我们提出了一种新的方法来隐式地为NMT整合源端语法。基本思想是使用经过训练的端到端依赖解析器的中间隐藏表示,这些表示被称为assyntax-aware word representationation(SAWR)。然后,我们简单地将这些SAWR与普通的单词嵌入连接起来,以增强基本的NMT模型。该方法可以直接集成到广泛使用的序列到序列(Seq2Seq)NMT模型中。我们从基于RNN的代表性Seq2Seq基线系统开始,分别测试我们提出的方法在中英文和英语 - 越南语翻译任务的两个基准数据集上的有效性。实验结果表明,与基线相比,该方法能够在两个数据集上显着提高BLEU得分,中英翻译分别为1.74分,英语 - 越南语翻译分别为0.80分。此外,该方法还优于显式树-RNN和树线性化方法。
translated by 谷歌翻译
最近,利用深度卷积神经网络的力量,图像超分辨率得到了广泛的研究并取得了显着的进展。然而,由于视频中的复杂时间模式,视频超分辨率(VSR)的进步有限。在本文中,我们研究如何适应视频超分辨率的图像超分辨率的最先进方法。所提出的适应方法很简单。连续帧之间的信息被很好地利用,而原始图像超分辨率方法的开销可以忽略不计。此外,我们提出了一种基于学习的方法来集成多倍分辨率模型的输出。我们的方法在NTIRE2019视频超分辨率挑战赛道1中表现出卓越的性能和排名第二。
translated by 谷歌翻译
在本文中,我们提出了基于DNN的原始图像去噪的新数据预处理和增强技术。与传统的RGB图像去噪相比,在直接相机传感器读数上执行此任务提出了新的挑战,例如如何有效地处理来自不同数据源的各种拜耳模式,以及随后如何利用原始图像执行有效的数据增强。为了解决第一个问题,我们提出了Bayer模式化(BayerUnify)方法来统一不同的拜耳模式。这允许充分利用异构数据集来训练单个去噪模型,而不是为每个模式训练一个模型。此外,虽然增加数据集以改进模型泛化和性能是非常重要的,但我们发现通过采用为RGB图像设计的增强方法来修改原始图像是容易出错的。为此,我们将Bayer保留增强(BayerAug)方法作为原始图像增强的有效方法。将这些数据处理技术与改进的U-Net相结合,我们的方法在NTIRE 2019 Real Image Deoising Challenge中实现了52.11的PSNR和0.9969的SSIM,展示了最先进的性能。
translated by 谷歌翻译
Noisy Max and Sparse Vector are selection algorithms for differential privacy and serve as building blocks for more complex algorithms. In this paper we show that both algorithms can release additional information for free (i.e., at no additional privacy cost). Noisy Max is used to return the approximate maximizer among a set of queries. We show that it can also release for free the noisy gap between the approximate maximizer and runner-up. Sparse Vector is used to return a set of queries that are approximately larger than a fixed threshold. We show that it can adaptively control its privacy budget (use less budget for queries that are likely to be much larger than the threshold) and simultaneously release for free a noisy gap between the selected queries and the threshold. It has long been suspected that Sparse Vector can release additional information, but prior attempts had incorrect proofs. Our version is proved using randomness alignment, a proof template framework borrowed from the program verification literature. We show how the free extra information in both mechanisms can be used to improve the utility of differentially private algorithms.
translated by 谷歌翻译