我们考虑文档级实体链接(EL)的任务,在该任务中,对实体的一致决定对整个文档进行共同提及很重要。我们旨在利用文档本身中提及的明确“连接”:我们建议将EL任务加入Coreference解决方案(CoreF)。这是对相关作品的补充,这些工作是利用(i)隐式文档信息(例如,实体提及或通用语言模型之间的潜在关系)或(ii)候选链接之间的联系(例如,从外部知识库中推断出)。具体而言,我们集群提及通过核心链接的,并为所有聚类提及的一个EL强制执行一个EL。后者的约束通过加入EL候选人名单来获得这样的群集提及,从而增加了覆盖范围的额外好处。我们将CoreF+EL问题提出为有向树的结构化预测任务,并使用全球标准化的模型来解决它。与独立对应物相比,两个数据集上的实验结果表明,CoreF和EL任务的提升高达 +5%F1得分。对于一部分硬案例,由于个人提及在其候选实体列表中缺乏正确的EL,我们的准确性提高了50%。
translated by 谷歌翻译
我们提出了文件的实体级关系联合模型。与其他方法形成鲜明对比 - 重点关注本地句子中的对,因此需要提及级别的注释 - 我们的模型在实体级别运行。为此,遵循多任务方法,它在Coreference分辨率上建立并通过多级别表示结合全局实体和本地提到信息来聚集相关信号。我们在积木数据集中实现最先进的关系提取结果,并报告了未来参考的第一个实体级端到端关系提取结果。最后,我们的实验结果表明,联合方法与特定于任务专用的学习相提并论,虽然由于共享参数和培训步骤而言更有效。
translated by 谷歌翻译
许多自然语言处理任务,例如核心解决方案和语义角色标签,都需要选择文本跨度并就其做出决定。此类任务的典型方法是为所有可能的跨度评分,并贪婪地选择特定任务的下游处理的跨度。然而,这种方法并未纳入有关应选择哪种跨度的诱导偏见,例如,选定的跨度倾向于是句法成分。在本文中,我们提出了一种新型的基于语法的结构化选择模型,该模型学会了利用为此类问题提供的部分跨度注释。与以前的方法相比,我们的方法摆脱了启发式贪婪的跨度选择方案,使我们能够在一组最佳跨度上对下游任务进行建模。我们在两个流行的跨度预测任务上评估我们的模型:核心分辨率和语义角色标签。我们对两者都展示了经验改进。
translated by 谷歌翻译
A coreference resolution system is to cluster all mentions that refer to the same entity in a given context. All coreference resolution systems need to tackle two main tasks: one task is to detect all of the potential mentions, and the other is to learn the linking of an antecedent for each possible mention. In this paper, we propose a hybrid rule-neural coreference resolution system based on actor-critic learning, such that it can achieve better coreference performance by leveraging the advantages from both the heuristic rules and a neural conference model. This end-to-end system can also perform both mention detection and resolution by leveraging a joint training algorithm. We experiment on the BERT model to generate input span representations. Our model with the BERT span representation achieves the state-of-the-art performance among the models on the CoNLL-2012 Shared Task English Test Set.
translated by 谷歌翻译
Coreference resolution (CR) is one of the most challenging areas of natural language processing. This task seeks to identify all textual references to the same real-world entity. Research in this field is divided into coreference resolution and anaphora resolution. Due to its application in textual comprehension and its utility in other tasks such as information extraction systems, document summarization, and machine translation, this field has attracted considerable interest. Consequently, it has a significant effect on the quality of these systems. This article reviews the existing corpora and evaluation metrics in this field. Then, an overview of the coreference algorithms, from rule-based methods to the latest deep learning techniques, is provided. Finally, coreference resolution and pronoun resolution systems in Persian are investigated.
translated by 谷歌翻译
尽管对抽象中的英语句子进行了广泛的研究,但是通过自动度量标准与金图相比,它与金图类进行了比较,但是统一图表表示的全文解析缺乏定义明确的表示和评估。利用以前的工作中的超级信托级别注释,我们介绍了一种用于导出统一图形表示的简单算法,避免了从合并不合并和缺乏连贯性信息丢失的陷阱。接下来,我们描述了对Swatch度量标准的改进,使其易于进行比较文档级图形,并使用它重新评估最佳已发布的文档级AMR解析器。我们还提出了一种与COREREFER解决系统的顶部组合的管道方法,为未来的研究提供了强大的基线。
translated by 谷歌翻译
实体歧义(ED)的最新工作通常忽略了结构性知识库(KB)事实,而是依靠有限的KB信息子集,例如实体描述或类型。这限制了实体可以消除歧义的环境范围。为了允许使用所有KB事实以及描述和类型,我们介绍了一个ED模型,该模型通过以完全可区分的方式通过符号知识基础来链接实体。我们的型号平均超过了六个良好的ED数据集的最新基线。通过允许访问所有KB信息,我们的模型较少依赖于基于流行的实体先验,并提高了具有挑战性的Shadowlink数据集(强调不频繁和模棱两可的实体)的性能12.7 F1。
translated by 谷歌翻译
实体链接的目的是在文档中的实体和知识图中的相应实体(KGS)中建立实体提到的链接。以前的工作表明了实体联系的全球一致性的有效性。但是,基于顺序决策的大多数现有全局链接方法侧重于如何利用先前链接的实体来增强后期决策。在这些方法中,提及顺序是固定的,使模型无法根据先前链接的结果调整后续链接目标,这将导致先前的信息不合理地利用。为了解决问题,我们提出了一种新颖的模型,称为Dymen,以通过增强学习基于先前链接的实体动态调整后续链接目标,使模型能够选择可以完全使用先前链接的信息的链接目标。我们通过滑动窗口来提及,以减少加强学习的动作采样空间,并保持提及的语义连贯性。在多个基准数据集上进行的实验表明了所提出的模型的有效性。
translated by 谷歌翻译
大多数阅读理解的研究都集中在基于单个文档甚至单一段落的问题上回答问题。我们介绍了一个神经模型,该神经模型集成和理由依赖于文档中和跨多个文档中的信息传播。我们将其作为图表上的推理问题构图。提及实体是该图的节点,而边缘编码不同提及(例如,内部和跨文档的共同参考)之间的关系。图形卷积网络(GCN)应用于这些图形,并经过训练以执行多步电推理。我们的实体-GCN方法是可扩展的,紧凑的,它可以在答案数据集的多文件问题上获得最新的结果,Wikihop(Welbl等,2018)。
translated by 谷歌翻译
我们提出了一种基于语境化嵌入的单词和实体的全局实体消除歧义(ED)模型。我们的模型基于BERT和培训我们的新培训任务,使模型能够捕获基于Word的本地和基于实体的全局上下文信息。该模型解决了ED作为序列决策任务,有效地使用两种类型的上下文信息。我们在五个标准ED数据集中实现了新的最先进结果:AIDA-CONLL,MSNBC,AQUAINT,ACE2004和WNED-Wiki。我们的源代码和培训的模型检查点可在https://github.com/studio-ousia/luke获得。
translated by 谷歌翻译
我们介绍了精致的,这是一种有效的端到端实体链接模型,该模型使用精细的实体类型和实体描述来执行链接。该模型执行提及的检测,细粒实体键入以及单个向前传球中文档中所有提及的实体歧义,使其比现有方法快60倍以上。精制还超过了标准实体链接数据集的最先进性能,平均比3.7 F1。该模型能够将其推广到大规模的知识库,例如Wikidata(其实体是Wikipedia的15倍)和零拍的实体链接。速度,准确性和规模的结合使精制成为从网络规模数据集中提取实体的有效且具有成本效益的系统,该数据集已成功部署该模型。我们的代码和预培训模型可在https://github.com/alexa/refined上找到
translated by 谷歌翻译
Wikidata是一个经常更新,社区驱动和多语言知识图形。因此,Wikidata是实体联系的一个有吸引力的基础,这是最近发表论文的增加显而易见的。该调查侧重于四个主题:(1)存在哪些Wikidata实体链接数据集,它们是多么广泛使用,它们是如何构建的? (2)对实体联系数据集的设计进行Wikidata的特点,如果是的话,怎么样? (3)当前实体链接方法如何利用Wikidata的特定特征? (4)现有实体链接方法未开发哪种Wikidata特征?本次调查显示,当前的Wikidata特定实体链接数据集在其他知识图表中的方案中的注释方案中没有不同。因此,没有提升多语言和时间依赖数据集的可能性,是自然适合维基帽的数据集。此外,我们表明大多数实体链接方法使用Wikidata以与任何其他知识图相同的方式,因为任何其他知识图都缺少了利用Wikidata特定特征来提高质量的机会。几乎所有方法都使用标签等特定属性,有时是描述,而是忽略超关系结构等特征。因此,例如,通过包括超关系图嵌入或类型信息,仍有改进的余地。许多方法还包括来自维基百科的信息,这些信息很容易与Wikidata组合并提供有价值的文本信息,Wikidata缺乏。
translated by 谷歌翻译
确定多个文档的概念提及的练习是自然语言理解中的基本任务。以前关于跨文档Coreference解析(CDCR)的工作通常会考虑新闻中的事件提到,这很少涉及普遍存在的科学和技术的技术概念。这些复杂的概念采用不同的形式或含糊不清的形式,并且具有许多分层级别的粒度(例如,任务和子组织),构成了CDCR的挑战。我们呈现了分层CDCR(H-CDCR)的新任务,其目标是在它们之间联合推断COREREFER集群和层次结构。我们在科学论文中创建SciCo,一个专家注释的H-CDCR数据集,比突出的欧洲ecb +资源大3倍。我们研究了我们为H-CDCR定制的强大基线模型,并突出了未来工作的挑战。
translated by 谷歌翻译
理解文章需要了解其成分事件。但是,所提到事件的上下文通常缺乏此事件的细节。然后,除了上下文之外,我们还可以在哪里获得更多关于这种特定事件的知识?这项工作定义了事件链接,在事件级别的新自然语言理解任务。事件链接尝试链接事件提及,例如在新闻文章中出现,例如,最合适的维基百科页面。该页面预计将提供有关事件所指的丰富知识。为了标准化对这一新问题的研究,我们的贡献三折。首先,这是社区中的第一个工作,它正式定义事件链接任务。其次,我们为此新任务收集一个数据集。具体而言,我们首先从维基百科自动收集培训设置,然后创建两个评估集:一个来自维基百科域的域,报告域中的性能;另一个来自真实世界新闻域,测试域外的性能。第三,我们提出Evelink,首先是事件连接方法。总体而言,事件链接是一个很大的具有挑战性的任务,需要更多来自社区的努力。数据和代码可在此处提供:https://github.com/cogcomp/event-linking。
translated by 谷歌翻译
关于文本到SQL语义解析的最新研究取决于解析器本身或基于简单的启发式方法来理解自然语言查询(NLQ)。合成SQL查询时,没有可用的NLQ的明确语义信息,从而导致不良的概括性能。此外,如果没有词汇级的细粒度查询理解,查询与数据库之间的链接只能依赖模糊的字符串匹配,这会导致实际应用中的次优性能。考虑到这一点,在本文中,我们提出了一个基于令牌级的细粒度查询理解的通用,模块化的神经语义解析框架。我们的框架由三个模块组成:命名实体识别器(NER),神经实体接头(NEL)和神经语义解析器(NSP)。通过共同建模查询和数据库,NER模型可以分析用户意图并确定查询中的实体。 NEL模型将类型的实体链接到数据库中的模式和单元格值。解析器模型利用可用的语义信息并链接结果并根据动态生成的语法合成树结构的SQL查询。新发布的语义解析数据集的Squall实验表明,我们可以在WikiableQuestions(WTQ)测试集上实现56.8%的执行精度,这使最先进的模型的表现优于2.7%。
translated by 谷歌翻译
本文概述了与CRAC 2022研讨会相关的多语言核心分辨率的共享任务。共同的任务参与者应该开发能够识别提及并根据身份核心重点聚集的训练系统。Corefud 1.0的公共版本包含10种语言的13个数据集,被用作培训和评估数据的来源。先前面向核心共享任务中使用的串联分数用作主要评估度量。5个参与团队提交了8个核心预测系统;此外,组织者在共享任务开始时提供了一个基于竞争变压器的基线系统。获胜者系统的表现优于基线12个百分点(就所有语言的所有数据集而言,在所有数据集中平均得分)。
translated by 谷歌翻译
自然语言理解的关系提取使得创新和鼓励新颖的商业概念成为可能,并促进新的数字化决策过程。目前的方法允许提取与固定数量的实体的关系作为属性。提取与任意数量的属性的关系需要复杂的系统和昂贵的关系触发注释来帮助这些系统。我们将多属性关系提取(MARE)引入具有两种方法的假设问题,促进从业务用例到数据注释的显式映射。避免精细的注释约束简化了关系提取方法的应用。评估将我们的模型与当前最先进的事件提取和二进制关系提取方法进行了比较。与普通多属性关系的提取相比,我们的方法表现出改进。
translated by 谷歌翻译
与伯特(Bert)等语言模型相比,已证明知识增强语言表示的预培训模型在知识基础构建任务(即〜关系提取)中更有效。这些知识增强的语言模型将知识纳入预训练中,以生成实体或关系的表示。但是,现有方法通常用单独的嵌入表示每个实体。结果,这些方法难以代表播出的实体和大量参数,在其基础代币模型之上(即〜变压器),必须使用,并且可以处理的实体数量为由于内存限制,实践限制。此外,现有模型仍然难以同时代表实体和关系。为了解决这些问题,我们提出了一个新的预培训模型,该模型分别从图书中学习实体和关系的表示形式,并分别在文本中跨越跨度。通过使用SPAN模块有效地编码跨度,我们的模型可以代表实体及其关系,但所需的参数比现有模型更少。我们通过从Wikipedia中提取的知识图对我们的模型进行了预训练,并在广泛的监督和无监督的信息提取任务上进行了测试。结果表明,我们的模型比基线学习对实体和关系的表现更好,而在监督的设置中,微调我们的模型始终优于罗伯塔,并在信息提取任务上取得了竞争成果。
translated by 谷歌翻译
从学术文章中自动提取资金信息为行业和研究社区增添了重要价值,例如基于收到的资金进行资助组织,研究人员和大学的研究成果,并支持开放访问政策。识别和链接资金实体的两个主要挑战是:(i)知识库(KB)的稀疏图结构,这使得基于图的常用实体链接方法的资金域链接方法,(ii)KB中的缺失实体,这(与最近的零拍方法不同)需要标记实体提及没有KB条目为零。我们提出了一个可以执行零预测并克服数据稀缺问题的实体链接模型。我们的模型建立在基于变压器的提及检测和双重编码模型的基础上,以执行实体链接。我们表明,我们的模型表现优于现有基线。
translated by 谷歌翻译
我们提出了一种基于实例的最近的邻居方法与实体链接。与大多数先前的实体检索系统相反,它代表每个实体都用单个向量代表每个实体,我们构建了一个上下文化的提及编码器,该系统学会学会在向量空间中更接近同一实体的相似提及,而不是对不同实体的提及。这种方法使一个实体的所有提及都可以用作“类原型”,因为推理涉及从训练集中的完整标记实体提及并应用最近提及的邻居的实体标签中检索。我们的模型经过了来自Wikipedia超链接的大型多语种对,并在7亿个提及的指数上执行最近的邻居推断。训练,提供更容易解释的预测,并在两个多语言实体上链接基准测试的所有其他系统都更简单。
translated by 谷歌翻译