传统上,语音翻译是通过级联模型来处理的,该级联模型由在转录语音语料库上训练的语音识别器和在并行文本上训练的机器翻译系统组成。最近的一些工作已经证明了将级联折叠成单个直接模型的可行性,该模型可以在翻译语音的语料库中以端到端的方式进行训练。然而,实验对于直接模型的级联是否更强,并且仅在现实假设下进行,即两者都是在等量的数据上进行训练而忽略了其他可用的语音识别和机器翻译语料库,尚无定论。在本文中,我们证明直接语音翻译模型需要更多数据才能比级联模型更好地执行,虽然它们允许通过多任务训练包括辅助数据,但是他们在利用这样的数据方面很差,使它们处于严重劣势。作为一种补救措施,我们建议使用具有两种注意机制的端到端可训练模型,第一种是建立源语音来源文本对齐,第二种模型源是目标文本对齐。我们表明,这样的模型自然地分解为多任务可训练的识别和翻译任务,并提出了在两个关注阶段的模型的先前公式中减轻错误传播问题的阅读传递技术。我们提出的模型输出执行所有检查的基线,并且能够比直接注意模型更有效地利用辅助训练数据。
translated by 谷歌翻译
最近的跨语言嵌入方法通常基于两种语言中的嵌入向量集之间的线性变换。在本文中,我们提出了一种方法,它将双单词嵌入空间表示为由高斯混合模型定义的概率密度,并使用称为normalizingflow的方法匹配两个密度。该方法不需要明确的监督,并且可以仅使用具有相同字符串的单词的种子字典来学习。我们认为这种表达具有几个直观吸引人的特性,特别是在提高对难以处理的语言对或单词对之间的映射的鲁棒性和泛化方面。在双语导入和跨语言词汇相似性的基准数据集上,与最新发表的结果相比,我们的方法可以实现竞争性或优越性,在词源学上遥远和/或形态丰富的语言中发现特别强的结果。
translated by 谷歌翻译
同声传译,将语言从一种语言翻译成另一种语言,是一项固有的困难和艰巨的任务。口译员面临的最大挑战之一是准确翻译难以理解的术语,如专有名称,数字或其他实体。智能计算机辅助口译(CAI)工具可以分析口头词并检测可能被口译员翻译的术语,可以减少翻译错误并提高口译员的表现。在本文中,我们提出了一个任务,即预测同义解释器将翻译哪些术语,并检查使用supervisedsequence标记符执行此任务的方法。我们描述了一些明确设计的任务特定功能,以指示解释器何时可能难以翻译单词.NAIST同时翻译语料库的新注释版本的实验结果(Shimizu et al。,2014)表明了我们提出的方法的前景。
translated by 谷歌翻译
现代机器翻译(MT)系统在干净的域内文本中表现良好。然而,人类生成的文本,特别是在社会媒体领域,充满了错别字,俚语,方言,惯用语和其他可能对输出翻译的准确性产生灾难性影响的噪音。在本文中,我们利用噪声文本的机器翻译(MTNT)数据集,通过在其他清洁数据中模拟自然发生的噪声来增强MT系统的稳健性。以这种方式合成噪声,我们最终能够使香草MT系统对自然产生的噪声具有弹性,并且部分地减轻由此产生的精度损失。
translated by 谷歌翻译
本文描述了针对机器翻译(MT),实体发现和链接(EDL)以及文本和语音中的情景帧(SF文本和语音)的检测的低资源人类语言技术(LoReHLT)2018评估的ARIEL-CMU提交。
translated by 谷歌翻译
神经机器翻译(NMT)系统的多语言训练已经导致对低资源语言的精确改进。然而,在缺乏数据的情况下,有效学习单词表示仍然存在重大挑战。在本文中,我们提出了软解耦编码(SDE),这是一种多语言词典编码框架,专门设计用于智能地共享层级信息,而不需要诸如预分割数据之类的启发式预处理。 SDE通过字符编码表示一个单词,通过所有语言共享的嵌入空间表示其语义。对四种低资源语言的标准数据集进行的实验显示,对于强多语言NMT基线有一致的改进,其中一种测试语言的增益高达2 BLEU,在所有四种语言对上实现了新的最新技术水平。
translated by 谷歌翻译
在这项工作中,我们提出了一种神经对话响应生成方法,它不仅可以根据对话历史生成语义上合理的响应,还可以通过情感标签明确控制响应的情绪。我们提出的模型基于有条件的对抗性学习的范式;对情绪控制对话发生器的训练由对抗性鉴别器辅助,该鉴别器评估对话历史和给定情绪标签产生的反应的流畅性和可行性。由于我们的框架的灵活性,生成器可以是标准的序列到序列(SEQ2SEQ)模型或更复杂的模型,例如基于条件变异的基于编码器的SEQ2SEQ模型。使用自动和人道评估的实验结果都表明我们提出的框架能够产生语义上合理和情感控制的对话响应。
translated by 谷歌翻译
语言文档本质上是一个耗时的过程;转录,光泽和语料库管理消耗了文献学家的大部分工作。自然语言处理的进步可以帮助加速这项工作,使用语言学家过去的决定作为培训材料,但仍然存在关于如何优先考虑人类参与的问题。在这个扩展抽象中,我们描述了一个新项目的开始,该项目将尝试通过使用自然语言处理(NLP)技术来简化语言文档处理过程。它基于(1)基于大量多语言神经网络的最新进展来适应NLP工具音调语言的方法,以及(2)允许语言学家上传其数据的后端API和接口。然后,我们在两个方面描述我们当前的进展:自动音素转录和光泽。最后,我们简要介绍一下我们的未来发展方向。
translated by 谷歌翻译
跨语言实体链接将源语言中提及的实体映射到具有不同(目标)语言的结构化知识库中的对应条目。虽然以前的工作在很大程度上依赖于双语词汇资源来弥合源语言和目标语言之间的差距,但这些资源很少或不适用于许多资源匮乏的语言。为了解决这个问题,我们研究了零射击跨语言实体链接,其中我们假设源语言资源语言中没有双语词汇资源。具体而言,我们提出基于枢轴的实体链接,其利用来自高资源“枢轴”语言的信息来训练特征级神经实体链接以零射击方式转移到源流资源语言的模型。通过对9种低资源语言的实验并通过总共54种语言进行转换,我们表明,对于零射击场景,我们提出的基于枢轴的框架在基线系统上平均提高了实体链接精度17%(绝对值)。此外,我们还研究了语言通用语音表示的使用,当使用不同脚本的语言之间进行转换时,它们将平均准确度(绝对值)提高了36%。
translated by 谷歌翻译
我们介绍了学习编辑的分布式表示的问题。通过将“神经编辑器”与“编辑编码器”组合在一起,我们的模型学会了解编辑的显着信息,并可用于应用编辑音调输入。我们在自然语言和源代码编辑数据上进行实验。 Ourevaluation产生了有希望的结果,表明我们的神经网络模型意味着捕获编辑的结构和语义。我们希望这个有趣的任务和数据源将激励其他研究人员进一步解决这个问题。
translated by 谷歌翻译