现代机器翻译(MT)系统在干净的域内文本中表现良好。然而,人类生成的文本,特别是在社会媒体领域,充满了错别字,俚语,方言,惯用语和其他可能对输出翻译的准确性产生灾难性影响的噪音。在本文中,我们利用噪声文本的机器翻译(MTNT)数据集,通过在其他清洁数据中模拟自然发生的噪声来增强MT系统的稳健性。以这种方式合成噪声,我们最终能够使香草MT系统对自然产生的噪声具有弹性,并且部分地减轻由此产生的精度损失。
translated by 谷歌翻译
同声传译,实时翻译口语,是极具挑战性和体力要求的。预测解释信心和解释信息充分性的方法有许多潜在的应用,例如计算机辅助解释接口或教学工具。我们提出了通过建立现有的机器翻译输出质量评估(QE)方法来预测同时解释器性能的任务。在三个语言对中的五个设置的实验中,我们扩展了QE管道以估计解释器性能(由METEOR评估度量近似)并提出反映解释策略和评估措施的新颖特征,以进一步提高预测准确性。
translated by 谷歌翻译
提出了一种由“自动机器学习”(AutoML)中的应用驱动的字符级卷积神经网络(CNN),对表格数据中的列进行了语义分类。包含一组基类的模拟数据首先用于学习一组初始权重。然后将来自CKAN存储库的手标记数据用于转移学习范例,以将初始权重添加到问题的更复杂表示(例如,包括更多类)。在这样做时,实际的数据缺陷被学习并且所处理的类集可以从具有减少的标记数据和计算能力要求的基础集扩展。结果显示了该方法在三个不同领域的有效性和灵活性:表格数据的语义分类,社交媒体帖子的年龄预测和电子邮件垃圾邮件分类。除了进一步证明自然语言处理(NLP)中转移学习的有效性之外,我们的实验还建议在没有额外元数据的情况下分析语言的语义结构 - 即网络结构,标题等 - 可以为类型分类,垃圾邮件分类和社交媒体年龄预测产生竞争准确性。我们提供了我们的开源工具包SIMON,它是用于建模的语义推理的首字母缩写,它以用户友好和可扩展/可并行的方式实现了这种方法。
translated by 谷歌翻译
与深度学习类似,基于视觉的深度强化学习(RL)通常通过使用高容量和相对大的卷积神经网络(CNN)获得性能益处。但是,大型网络会导致更高的推理成本(功耗,延迟,硅片面积,MAC数量)。已经为CNN开发了许多推论优化。一些优化技术提供了理论效率,但设计实际硬件以支持它们是困难的。另一方面,“蒸馏”是一种简单的通用优化技术,广泛适用于将知识从训练有素的高容量教师网络传输到不受约束的低容量学生网络。 “DQN蒸馏”扩展了原始蒸馏理念,以传输存储在通过深度Q学习(DQN)算法训练的高性能,高容量教师Q函数中的信息。我们的工作使DQN蒸馏工作适应于演员批评的近端政策优化算法。 PPO易于实现,并且具有比开创性DQN算法更高的性能。我们表明,与DQN教师相比,蒸馏的PPO学生可以获得更高的性能。我们还发现,低容量的蒸馏学生通常能够胜过直接在环境中培训的低能力代理人。最后,我们展示了蒸馏,然后在环境中进行“微调”,使得流动的PPO学生能够实现与教师表现的平等。一般来说,在这项工作中学到的经验应该转移到其他演员批评RLalgorithms。
translated by 谷歌翻译
在非常大的路线图中的两点之间的最快路径查询在现代运输和导航系统中是越来越重要的原语,因此非常有效地计算这些路径对于系统性能和吞吐量是至关重要的。我们提出了一种计算路线图上两点之间最快路径行进时间的有效启发的方法,可用于在计算最快路径时显着加速经典A *算法。我们的方法基于由两个二叉树表示的地图的两个分层集合。预处理步骤基于分离物计算每个道路交叉点的短矢量值,然后将其与地图一起存储并用于在在线查询阶段有效地计算启发式。我们通过实验证明,这种方法可以很好地扩展到任何地图大小,提供更好的质量启发式,从而提供更高效的A *搜索,用于相对于其他已知启发式算法的点之间的最快路径查询 - 特别是中小范围。
translated by 谷歌翻译
神经网络可以在各种各样的任务上取得非凡的成果。然而,当他们试图顺序学习一些任务时,他们倾向于学习新任务,同时破坏性地忘记以前的任务。该问题的解决方案是伪排练,其涉及在排练代表先前任务的生成项目时学习新任务。我们认为将伪排练方法与生成网络配对是强化学习中这一问题的有效解决方案。我们的方法有效地学习了三个Atari 2600游戏,同时在所有三个游戏中保持了高于人类水平的表现,表现类似于从所有先前学习的任务中排练实例的网络。
translated by 谷歌翻译
从多模MRI扫描中准确分割胶质瘤的不同亚区域,包括肿瘤周围水肿,坏死核心,增强和非增强肿瘤核心,在脑肿瘤的诊断,预后和治疗中具有重要的临床意义。然而,由于高度异质的外观和形状,子区域的分割是非常具有挑战性的。使用深度学习模型的近期发展已证明其在过去的几个脑分割挑战以及其他语义和医学图像分割问题中的有效性。大脑肿瘤分割中的大多数模型使用2D / 3D贴片来预测中心体素的类别标签,并且使用变体尺寸和尺度来改善模型性能。然而,它具有低计算效率并且还具有有限的感受野。 U-Net是用于端到端分段的广泛使用的网络结构,可用于整个图像或提取的补丁,以在整个输入体素上提供分类标签,从而使其更有效并且期望在更大的输入尺寸下产生更好的性能。此外,不是选择最佳网络结构,而是在不同数据集不同超参数上训练的多个模型的集合通常可以改善分段性能。在这项研究中,我们建议使用具有不同超参数的3D U-Nets集合进行脑肿瘤分割。初步结果表明该模型的有效性。此外,我们使用提取的成像和非成像特征开发了用于生存预测的线性模型,尽管简单,但可以有效地减少过度拟合和回归误差。
translated by 谷歌翻译
我们研究了Wave-U-Net架构在语音增强中的应用,Stoller等人介绍了用于分离音乐人声和伴奏的模型。这种用于音频源分离的端到端学习方法直接在时域中运行,允许对相位信息进行综合建模,并能够考虑大的时间背景。我们的实验表明,该方法改进了几个指标,即PESQ,CSIG, CBAK,COVL和SSNR,关于语音银行语料库(VCTK)数据集上的语音增强任务的最新技术。我们发现隐藏层的减少数量足以用于语音增强,与用于歌唱语音分离音乐的原始系统相比较。我们认为这一初步结果是进一步探索时域增强的一个令人鼓舞的信号,既是本身的目的,也是语音识别系统的预处理步骤。
translated by 谷歌翻译
深度神经网络(DNN)已经在多对比MRI(包括T1,T2,质子密度(PD)和FLAIR序列)的多发性硬化(MS)病变分割中显示出前景。然而,将这样的网络部署到临床实践中的一个挑战是成像协议的可变性,其由于某些MRI序列可能不可用或不可用而偏离训练数据集。因此,当成像协议在部署中不同时,训练有素的网络需要适应实际情况。在本文中,我们提出了一种基于DNN的MS病变分割框架,其具有称为序列丢失的新技术,其可以在部署期间适应输入MRI序列的各种组合,并且从给定输入实现最大可能的性能。此外,通过该框架,我们研究了每个MRI序列对MS病变分割任务的定量影响,而无需培训单独的网络。使用IEEE ISBI 2015纵向MSLesion Challenge数据集进行实验,我们的方法目前排名第二,Dicesimilarity系数为0.684。此外,我们通过与在相应的输入MRI序列上训练的单独网络进行比较,我们展示了当一个序列在部署期间不可用时,我们的网络实现了最大可能的性能。特别地,我们发现T1和PD对分割性能影响较小,而FLAIR是主要序列。还进行了多个缺失序列的实验,并显示了我们网络的稳健性。
translated by 谷歌翻译
生物成像数据通常部分混淆或包含不想要的变化。这种现象的实例包括可变照明跨显微镜图像捕获,组织学载玻片中的染色强度变化,以及用于高通量药物筛选测定的批次效应。因此,为了开发“公平”模型,这些模型很好地概括为看不见的例子,学习对变异的烦扰因素不敏感的数据表示是至关重要的。在本文中,我们提出了一种基于对抗性训练的策略,能够学习对混淆者不变的无监督表示。我们的方法的Asan经验验证,我们使用深度卷积自动编码器来学习显微镜成像的无偏细胞表示。
translated by 谷歌翻译