在本文中,我们提出了一个基于开放的基于词汇的词汇知识库OpenOowNet。基于着名的知网,OpenHowNet包含三个组成部分:核心数据,由超过10万个带有注释的意义组成,OpenHowNet Web简要介绍OpenHowNet以及OpenHowNet信息的在线展示,OpenHowNet API包括几个有用的API,例如访问OpenHowNet核心数据和绘制感官的sememe树结构。在正文中,我们首先给出一些背景知识,包括sememe的定义和HowNet的细节。然后我们介绍一些以前的知网和基于sememe的研究工作。最后但并非至少,我们详细介绍了OpenHowNet的组成部分及其基本功能和功能。此外,我们简要地总结一下并列出一些未来的工作。
translated by 谷歌翻译
知识表示学习(KRL)旨在表示低维语义空间中知识图中的实体和关系,这些知识图已广泛用于大规模知识驱动的任务中。在本文中,我们向读者介绍了KRL的动机,并概述了现有的KRL方法。然后,我们对知识获取的三个评价任务,包括知识图完成,三重分类和相关提取,对几种典型的KRL方法进行了广泛的定量比较和分析。我们还回顾了KRL的实际应用,例如语言建模,问答,信息检索和推荐系统。最后,我们讨论了剩余的挑战并展望了KRL的未来发展方向。实验中使用的代码和数据集可以在https://github.com/thunlp/OpenKE中找到。
translated by 谷歌翻译
最近,学习网络中节点的低维嵌入的方法激增。由于存在许多大规模的现实世界网络,因此对于在存储器中存储大量参数并且在边缘之后更新它们的现有方法是有效的。由于知道在嵌入空间中具有相似邻域的节点将彼此接近,我们提出了COSINE(COmpresSIve NE)算法,该算法通过类似节点之间的参数共享来减少存储器占用并加速训练过程。 COSINE将图分区算法应用于网络,并根据分区结果构建节点的参数共享依赖性。通过在类似节点之间进行参数共享,COSINE将关于高层结构信息的先验知识注入到训练过程中,使网络嵌入更加高效和有效。 COSINE可应用于任何嵌入查找方法,并学习内存有限且训练时间短的高质量嵌入。我们进行多标签分类和链接预测的实验,其中基线和我们的模型具有相同的内存使用。实验结果表明,COSINE给基线分类增加了23%,链路预测增加了25%。此外,使用COSINE的所有表示学习方法的时间从30%降低到70%。
translated by 谷歌翻译
尽管神经机器翻译最近取得了重大进展,但如何整合多个重叠的,任意的先验知识源仍然是一个挑战。在这项工作中,我们建议使用后验正则化来提供将先验知识整合到神经机器翻译中的一般框架。我们将先验知识源表示为alog-linear模型中的特征,其指导神经翻译模型的学习过程。汉英翻译实验表明,我们的方法取得了显着的进步。
translated by 谷歌翻译
大多数语言建模方法依赖于大规模数据来统计地学习单词的顺序模式。在本文中,我们认为单词是原子语言单位,但不一定是原子语义单位。受到HowNet的启发,我们使用人类语言中最小语义单位的sememes来表示语言建模后面的隐含语义,即名为驱动语言模型(SDLM)。更具体地说,为了预测下一个词,SDLM首先估计了sememe分布给出了文本背景。之后,它将每个sememe视为一个独特的语义专家,并且这些专家共同识别最可能的感官和相应的词。这样,SDLM启用了语言除了词级操作之外,模型还可以工作到细粒度的语义级语义,并为我们提供更多的功能,以便微调语言模型,提高可解释性以及语言模型的稳健性。语言建模实验和标题生成的下游应用证明了SDLM的显着性。可以通过以下网址访问实验中使用的源代码和数据:// github.com/thunpp/SDLM-pytorch。
translated by 谷歌翻译
我们提出了一个少数关系分类数据集(FewRel),由来自维基百科的100个关系组成的70,000个句子组成,并由crowdworkers注释。每个句子的关系首先由distantsupervision方法识别,然后由众筹工作者过滤。我们采用最新的最先进的少数镜头学习方法进行关系分类,并对这些方法进行全面评估。实证结果表明,最具竞争力的少数几种学习模型在这项任务中挣扎,特别是与人类相比。我们还表明,解决我们的任务需要一系列不同的调整技巧。这些结果表明,射击关系分类仍然是一个悬而未决的问题,仍然需要进一步的研究。我们的详细分析指出了未来研究的多个方向。有关数据集和基线的所有详细信息和资源都在http://zhuhao.me/fewrel上发布。
translated by 谷歌翻译
在本文中,我们概述了中国人工智能和法律挑战(CAIL2018)中的法律判断预测(LJP)竞争。本次大赛的重点是LJP,旨在根据实际情况预测判断结果。具体来说,在CAIL2018中,我们为参赛者提出了三个LJP子任务,即根据事实描述预测相关法律文章,指控和囚犯。 CAIL2018吸引了数百名参与者(来自269个组织的601个团队,1,144名参赛者)。在本文中,我们提供了CAIL2018中任务定义,相关工作,优秀方法和竞争结果的详细概述。
translated by 谷歌翻译
虽然变形金刚翻译模型(Vaswani et al。,2017)已经在各种翻译任务中实现了最先进的表现,但是如何使用文档级语境来处理对于变形金刚来说有问题的话语现象仍然是一个挑战。在这项工作中,我们使用新的上下文编码器扩展Transformermodel,以表示文档级上下文,然后将其合并到原始编码器和解码器中。由于通常没有大规模的平行语料库,我们引入了两步训练方法来充分利用丰富的句子级平行语料库和有限的文档级并行语料库。在NIST中英文数据集和IWSLT法语 - 英语数据集上的实验表明,我们的方法显着改善了Transformer。
translated by 谷歌翻译
自动判断预测旨在基于案例材料预测司法结果。几十年来,它一直受到律师和法官的研究,被认为是法律领域中人工智能技术的新颖和前瞻性应用。大多数现有方法遵循文本分类框架,该框架无法模拟互补案例材料的复杂交互。为了解决这个问题,我们根据法律场景将该任务正式化为法律阅读理解。根据人类法官的工作协议,LRC根据三种信息预测最终判决结果,包括事实描述,原告诉讼和法律条款。此外,我们提出了一种新的LRC模型AutoJudge,它捕获事实,请求和法律之间复杂的语义交互。在实验中,我们为LRC构建了一个真实的民事案例数据集。该数据集的实验结果表明我们的模型具有重要意义。改进了最先进的模型。我们将在\ urlgithub.com上发布此工作的所有源代码和数据集,以供进一步研究。
translated by 谷歌翻译
中国诗歌作为人类文化遗产的宝贵组成部分,几代人都受到了影响。自动诗歌创作是AI的挑战。近年来,这在神经网络的发展中取得了重大进展。然而,对于一首生成的诗作为一个整体而言,连贯意义,主题甚至是艺术概念仍然是一个大问题。在本文中,我们为中国诗歌创作提出了一种新颖的突出线索机制。与以前用于利用所有上下文信息的工作不同,我们的模型从每个远程生成的行中自动选择最多的自然字符,逐渐形成一条显着的线索,用于指导连续的诗生成过程,以消除中断并提高连贯性。此外,我们的模型可以灵活地扩展,以控制所生成的诗歌在不同方面,例如诗歌风格,进一步增强了连贯性。实验结果表明,我们的模型非常有效,优于三个基线。
translated by 谷歌翻译