我们呈现了名字,一个从英语维基百科和新闻文章中获得的暧昧名称的实体的数据集。它由4148个独特实体的58862提到和他们的名称:来自News的1000个提到,来自Wikipedia关于实体的文章28843,以及29019维基百科反向链接提到。名称应该有助于为命名实体链接的任务建立具有挑战性的基准(NEL)。
translated by 谷歌翻译
在本文中,我们介绍了第一个链接冰岛语料库的实体。我们描述了使用多语言实体链接模型(MGENRE)与Wikipedia API搜索(WAPIS)结合使用的方法来标记我们的数据并将其与仅使用WAPIS进行比较。我们发现,我们的组合方法在我们的语料库上达到53.9%的覆盖范围,而仅使用WAPIS的覆盖率为30.9%。我们分析我们的结果并解释使用冰岛时使用多语言系统的价值。此外,我们分析了仍然没有标记的数据,识别模式并讨论为什么它们可能很难注释。
translated by 谷歌翻译
Wikidata是一个经常更新,社区驱动和多语言知识图形。因此,Wikidata是实体联系的一个有吸引力的基础,这是最近发表论文的增加显而易见的。该调查侧重于四个主题:(1)存在哪些Wikidata实体链接数据集,它们是多么广泛使用,它们是如何构建的? (2)对实体联系数据集的设计进行Wikidata的特点,如果是的话,怎么样? (3)当前实体链接方法如何利用Wikidata的特定特征? (4)现有实体链接方法未开发哪种Wikidata特征?本次调查显示,当前的Wikidata特定实体链接数据集在其他知识图表中的方案中的注释方案中没有不同。因此,没有提升多语言和时间依赖数据集的可能性,是自然适合维基帽的数据集。此外,我们表明大多数实体链接方法使用Wikidata以与任何其他知识图相同的方式,因为任何其他知识图都缺少了利用Wikidata特定特征来提高质量的机会。几乎所有方法都使用标签等特定属性,有时是描述,而是忽略超关系结构等特征。因此,例如,通过包括超关系图嵌入或类型信息,仍有改进的余地。许多方法还包括来自维基百科的信息,这些信息很容易与Wikidata组合并提供有价值的文本信息,Wikidata缺乏。
translated by 谷歌翻译
理解文章需要了解其成分事件。但是,所提到事件的上下文通常缺乏此事件的细节。然后,除了上下文之外,我们还可以在哪里获得更多关于这种特定事件的知识?这项工作定义了事件链接,在事件级别的新自然语言理解任务。事件链接尝试链接事件提及,例如在新闻文章中出现,例如,最合适的维基百科页面。该页面预计将提供有关事件所指的丰富知识。为了标准化对这一新问题的研究,我们的贡献三折。首先,这是社区中的第一个工作,它正式定义事件链接任务。其次,我们为此新任务收集一个数据集。具体而言,我们首先从维基百科自动收集培训设置,然后创建两个评估集:一个来自维基百科域的域,报告域中的性能;另一个来自真实世界新闻域,测试域外的性能。第三,我们提出Evelink,首先是事件连接方法。总体而言,事件链接是一个很大的具有挑战性的任务,需要更多来自社区的努力。数据和代码可在此处提供:https://github.com/cogcomp/event-linking。
translated by 谷歌翻译
实体消除歧义(ED)是实体链接(EL)的最后一步,当候选实体根据它们出现的上下文重新登录。所有数据集,用于培训和评估EL的模型,包括方便样本,如新闻文章和推文,将实体分布的现有概率偏置传播到更频繁发生的实体。前面表明,在这种数据集上的EL系统的性能高估,因为可以通过仅仅在学习之前获得更高的精度分数。为了提供更具足够的评估基准,我们介绍了ShadowLink数据集,其中包括16K短文本代码段,其中包含实体提出。我们评估并报告在Shadowlink基准上的流行EL系统的表现。结果表明,在评估中所有EL系统的越来越少的常见实体之间的准确性差异相当差异,证明了现有概率偏差和实体的效果。
translated by 谷歌翻译
在本文中,我们展示了一种用于命名实体识别的意大利数据集。它包含超过一百万个令牌,其中注释涵盖三个课程:人员,地点和组织。大多数数据集(大约600k令牌)包含三个不同领域的手动黄金注释:新闻,文学和政治致命。文本和注释可用于免费下载GitHub存储库。
translated by 谷歌翻译
我们提出了多语言数据集的Multiconer,用于命名实体识别,涵盖11种语言的3个域(Wiki句子,问题和搜索查询),以及多语言和代码混合子集。该数据集旨在代表NER中的当代挑战,包括低文字方案(简短和未添加的文本),句法复杂的实体(例如电影标题)和长尾实体分布。使用基于启发式的句子采样,模板提取和插槽以及机器翻译等技术,从公共资源中汇编了26M令牌数据集。我们在数据集上应用了两个NER模型:一个基线XLM-Roberta模型和一个最先进的Gemnet模型,该模型利用了Gazetteers。基线实现了中等的性能(Macro-F1 = 54%),突出了我们数据的难度。 Gemnet使用Gazetteers,显着改善(Macro-F1 =+30%的平均改善)。甚至对于大型预训练的语言模型,多功能人也会构成挑战,我们认为它可以帮助进一步研究建立强大的NER系统。 Multiconer可在https://registry.opendata.aws/multiconer/上公开获取,我们希望该资源将有助于推进NER各个方面的研究。
translated by 谷歌翻译
我们提出了一种新颖的基准和相关的评估指标,用于评估文本匿名方法的性能。文本匿名化定义为编辑文本文档以防止个人信息披露的任务,目前遭受了面向隐私的带注释的文本资源的短缺,因此难以正确评估各种匿名方法提供的隐私保护水平。本文介绍了标签(文本匿名基准),这是一种新的开源注释语料库,以解决此短缺。该语料库包括欧洲人权法院(ECHR)的1,268个英语法院案件,并充满了有关每个文档中出现的个人信息的全面注释,包括其语义类别,标识符类型,机密属性和共同参考关系。与以前的工作相比,TAB语料库旨在超越传统的识别(仅限于检测预定义的语义类别),并且明确标记了这些文本跨越的标记,这些文本应该被掩盖,以掩盖该人的身份受到保护。除了介绍语料库及其注释层外,我们还提出了一套评估指标,这些指标是针对衡量文本匿名性的性能而定制的,无论是在隐私保护和公用事业保护方面。我们通过评估几个基线文本匿名模型的经验性能来说明基准和提议的指标的使用。完整的语料库及其面向隐私的注释准则,评估脚本和基线模型可在以下网址提供:
translated by 谷歌翻译
In this paper we introduce a new publicly available dataset for verification against textual sources, FEVER: Fact Extraction and VERification. It consists of 185,445 claims generated by altering sentences extracted from Wikipedia and subsequently verified without knowledge of the sentence they were derived from.The claims are classified as SUPPORTED, RE-FUTED or NOTENOUGHINFO by annotators achieving 0.6841 in Fleiss κ. For the first two classes, the annotators also recorded the sentence(s) forming the necessary evidence for their judgment. To characterize the challenge of the dataset presented, we develop a pipeline approach and compare it to suitably designed oracles. The best accuracy we achieve on labeling a claim accompanied by the correct evidence is 31.87%, while if we ignore the evidence we achieve 50.91%. Thus we believe that FEVER is a challenging testbed that will help stimulate progress on claim verification against textual sources.
translated by 谷歌翻译
由于看不见和新兴实体的频率,新闻中的命名实体链接(NEL)是一项具有挑战性的努力,因此需要使用无监督或零摄像的方法。但是,这种方法往往会带来警告,例如不整合新兴实体的合适知识库(例如Wikidata),缺乏可扩展性和不良的可解释性。在这里,我们考虑在Quotebank中的人歧义,这是新闻中大量的说话者归类的语言,并调查了NEL在网络规模的语料库中直观,轻巧且可扩展的启发式方法的适用性。我们表现最好的启发式歧义分别在Quotebank和Aida-Conll基准上分别占94%和63%。此外,提出的启发式方法与最先进的无监督和零摄像方法,本本系和MGenRE相比,从而成为无监督和零照片实体链接的强基础。
translated by 谷歌翻译
我们提出了将事件链接到知识库的多语言链接的任务。我们会自动编译一个针对此任务的大型数据集,包括180万个涉及Wikidata超过10.9k事件的44种语言提及。我们提出了事件链接任务的两个变体:1)多语言,其中事件描述来自与提及的语言相同的语言,以及2)交叉语言,其中所有事件描述均以英语为单位。在提出的两个任务上,我们比较了包括BM25+(LV和Zhai,2011年)在内的多个事件链接系统以及Blink(Wu等,2020)的Biencoder和Crossencoder体系结构的多语言改编。在我们对两个任务变体的实验中,我们发现Biencoder和Crossencoder模型均显着优于BM25+基线。我们的结果还表明,跨语言任务通常比多语言任务更具挑战性。为了测试所提出的链接系统的室外概括,我们还创建了基于Wikinews的评估集。我们提出了定性分析,强调了拟议数据集捕获的各个方面,包括需要在上下文上进行时间推理并解决跨语言的各种事件描述。
translated by 谷歌翻译
\ textit {petit larousse Illustr \'e}是一本法国词典,于1905年首次出版。其在语言和历史和地理方面的两个主要部分,对应于法国词典中的一个主要里程碑,也对应于经常知识的存储库,以及从这一时期。尽管从1905年开始的许多条目的价值仍然完好无损,但现在有些描述的维度比当代更具历史性。然而,它们对于分析和理解这段时间的文化代表性仍然很重要。与最新信息或对这些条目进行验证的比较将需要进行乏味的体力劳动。在本文中,我们描述了一种新的词汇资源,我们将历史记录和地理部分的所有字典条目与当前数据源联系起来。为此,我们将这些条目中的每一个链接到Wikidata标识符。使用Wikidata链接,我们可以更轻松地自动化识别,比较和验证历史上的表示形式。我们提供了一些有关如何处理Wikidata标识符的示例,并对词典中描述的实体进行了少量分析,以概述可能的应用程序。资源,即具有Wikidata链接的20,245个字典条目的注释,可从GitHub获得(\ url {https://github.com/pnugues/petit_larousse_1905/}))
translated by 谷歌翻译
现代实体链接(EL)系统构成了流行偏见,但是没有数据集以英语以外的其他语言上关注尾巴和新兴实体。我们向Hansel展示了中国人的新基准,它填补了非英国几乎没有射击和零击EL挑战的空缺。Hansel的测试集经过人工注释和审查,并采用了一种用于收集零照片EL数据集的新方法。它涵盖了新闻,社交媒体帖子和其他网络文章中的10k多种文档,Wikidata作为目标知识库。我们证明,现有的最新EL系统在Hansel上的表现不佳(R@1中的36.6%,几乎没有射击)。然后,我们建立了一个强大的基线,该基线在我们的数据集上的零射门上为46.2%的R@1分之1。我们还表明,我们的基线在TAC-KBP2015中国实体链接任务上取得了竞争成果。
translated by 谷歌翻译
在科学研究中,该方法是解决科学问题和关键研究对象的必不可少手段。随着科学的发展,正在提出,修改和使用许多科学方法。作者在抽象和身体文本中描述了该方法的详细信息,并且反映该方法名称的学术文献中的关键实体称为方法实体。在大量的学术文献中探索各种方法实体有助于学者了解现有方法,为研究任务选择适当的方法并提出新方法。此外,方法实体的演变可以揭示纪律的发展并促进知识发现。因此,本文对方法论和经验作品进行了系统的综述,重点是从全文学术文献中提取方法实体,并努力使用这些提取的方法实体来建立知识服务。首先提出了本综述涉及的关键概念的定义。基于这些定义,我们系统地审查了提取和评估方法实体的方法和指标,重点是每种方法的利弊。我们还调查了如何使用提取的方法实体来构建新应用程序。最后,讨论了现有作品的限制以及潜在的下一步。
translated by 谷歌翻译
With the ever-growing popularity of the field of NLP, the demand for datasets in low resourced-languages follows suit. Following a previously established framework, in this paper, we present the UNER dataset, a multilingual and hierarchical parallel corpus annotated for named-entities. We describe in detail the developed procedure necessary to create this type of dataset in any language available on Wikipedia with DBpedia information. The three-step procedure extracts entities from Wikipedia articles, links them to DBpedia, and maps the DBpedia sets of classes to the UNER labels. This is followed by a post-processing procedure that significantly increases the number of identified entities in the final results. The paper concludes with a statistical and qualitative analysis of the resulting dataset.
translated by 谷歌翻译
Early detection of relevant locations in a piece of news is especially important in extreme events such as environmental disasters, war conflicts, disease outbreaks, or political turmoils. Additionally, this detection also helps recommender systems to promote relevant news based on user locations. Note that, when the relevant locations are not mentioned explicitly in the text, state-of-the-art methods typically fail to recognize them because these methods rely on syntactic recognition. In contrast, by incorporating a knowledge base and connecting entities with their locations, our system successfully infers the relevant locations even when they are not mentioned explicitly in the text. To evaluate the effectiveness of our approach, and due to the lack of datasets in this area, we also contribute to the research community with a gold-standard multilingual news-location dataset, NewsLOC. It contains the annotation of the relevant locations (and their WikiData IDs) of 600+ Wikinews articles in five different languages: English, French, German, Italian, and Spanish. Through experimental evaluations, we show that our proposed system outperforms the baselines and the fine-tuned version of the model using semi-supervised data that increases the classification rate. The source code and the NewsLOC dataset are publicly available for being used by the research community at https://github.com/vsuarezpaniagua/NewsLocation.
translated by 谷歌翻译
This article presents the application of the Universal Named Entity framework to generate automatically annotated corpora. By using a workflow that extracts Wikipedia data and meta-data and DBpedia information, we generated an English dataset which is described and evaluated. Furthermore, we conducted a set of experiments to improve the annotations in terms of precision, recall, and F1-measure. The final dataset is available and the established workflow can be applied to any language with existing Wikipedia and DBpedia. As part of future research, we intend to continue improving the annotation process and extend it to other languages.
translated by 谷歌翻译
我们提出了带有核心注释的新语料库,俄罗斯核心语料库(Rucoco)。Rucoco的目的是获得大量注释的文本,同时保持高通道一致性。鲁科科(Rucoco)包含俄语的新闻文本,其中一部分是从头开始注释的,其余的机器生成的注释是由人类注释者完善的。我们的语料库的大小是一百万个单词,约有15万个提及。我们使语料库公开可用。
translated by 谷歌翻译
We present TriviaQA, a challenging reading comprehension dataset containing over 650K question-answer-evidence triples. TriviaQA includes 95K questionanswer pairs authored by trivia enthusiasts and independently gathered evidence documents, six per question on average, that provide high quality distant supervision for answering the questions. We show that, in comparison to other recently introduced large-scale datasets, TriviaQA (1) has relatively complex, compositional questions, (2) has considerable syntactic and lexical variability between questions and corresponding answer-evidence sentences, and (3) requires more cross sentence reasoning to find answers. We also present two baseline algorithms: a featurebased classifier and a state-of-the-art neural network, that performs well on SQuAD reading comprehension. Neither approach comes close to human performance (23% and 40% vs. 80%), suggesting that Trivi-aQA is a challenging testbed that is worth significant future study. 1
translated by 谷歌翻译
Web搜索查询可以模糊:是“尼罗来的来源”,意味着查找实际河流或该名称的棋盘游戏中的信息?我们通过派生基于实体的查询解释来解决这个问题:给定一些查询,任务是从背景知识库中的语义兼容实体中推导出链接所有合理的方法。我们建议的方法侧重于有效性,但由于Web搜索响应时间不应超过数百毫秒的效率。在我们的方法中,我们使用查询分段作为查找有前途的基于段的“解释骨架”的预处理步骤。然后将来自这些骨架的各个段与知识库的实体相关联,并且合理的组合在最后一步中排名。所有现有查询实体链接数据集的组合语料库上的实验比较显示了我们的方法,以便在比以前最有效的方法更好的运行时间内具有更好的解释精度。
translated by 谷歌翻译