资源说明框架(RDF)和属性图(PG)是表示,存储和查询图数据的两个最常用的数据模型。我们提出了表达推理图存储(ERGS) - 构建在Janusgraph(属性图存储)顶部的图存储,该图还允许存储和查询RDF数据集。首先,我们描述了如何将RDF数据转换为属性图表示,然后描述将SPARQL查询转换为一系列Gremlin遍历的查询翻译模块。因此,开发的转换器和翻译器可以允许任何Apache TinkerPop符合图形数据库存储和查询RDF数据集。我们证明了使用JanusGraph作为基本属性图存储的建议方法的有效性,并将其性能与标准RDF系统进行比较。
translated by 谷歌翻译
Semantic Web Rule Language (SWRL) combines OWL (Web Ontology Language) ontologies with Horn Logic rules of the Rule Markup Language (RuleML) family. Being supported by ontology editors, rule engines and ontology reasoners, it has become a very popular choice for developing rule-based applications on top of ontologies. However, SWRL is probably not go-ing to become a WWW Consortium standard, prohibiting industrial acceptance. On the other hand, SPIN (SPARQL Inferencing Notation) has become a de-facto industry standard to rep-resent SPARQL rules and constraints on Semantic Web models, building on the widespread acceptance of SPARQL (SPARQL Protocol and RDF Query Language). In this paper, we ar-gue that the life of existing SWRL rule-based ontology applications can be prolonged by con-verting them to SPIN. To this end, we have developed the SWRL2SPIN tool in Prolog that transforms SWRL rules into SPIN rules, considering the object-orientation of SPIN, i.e. linking rules to the appropriate ontology classes and optimizing them, as derived by analysing the rule conditions.
translated by 谷歌翻译
我们介绍了对形状约束语言(Shacl)的介绍和审查,用于验证RDF数据的W3C推荐语言。SHACL文档描述了RDF节点上的一组约束,如果其节点满足这些约束,则图表对于文档是有效的。我们重新审视语言的基本概念,其构建和组件及其互动。我们审查了用于研究这种语言和不同语义的不同正式框架。我们检查许多相关问题,从遏制和满足性与Shacl与推理规则的相互作用,并展示语言的不同发动机对不同的问题有用。我们还涵盖了Shacl的实际方面,讨论其实现和通过的情况,为从业者和理论者提供了一个很有用的全面审查。
translated by 谷歌翻译
RDF知识图(kg)是强大的数据结构,可以表示由异质数据源创建的事实语句。 KG创建很费力,需要有效地执行数据管理技术。本文解决了自动生成KG创建过程的问题;它提出了在RDF映射语言(RML)中指定的映射断言之后,用于计划和将异质数据计划和转换为RDF三元组的技术。给定一组映射断言,计划者通过分区和安排断言的执行来提供优化的执行计划。首先,考虑到数据源数量,映射断言的类型以及不同断言之间的关联,计划者评估了优化数量的分区数量。在提供属于每个分区的分区和断言列表之后,计划者确定其执行命令。实施了一种贪婪的算法来生成分区的浓密树执行计划。浓密的树计划被转化为操作系统命令,以指导在灌木树指示的顺序中执行映射断言的分区。提出的优化方法是根据最新的RML兼容发动机以及数据源和RML三元图的现有基准进行评估的。我们的实验结果表明,所研究的引擎的性能可以大大改善,尤其是在具有大量三元图和大数据源的复杂环境中。结果,在复杂案例中超时的引擎可以至少生产出应用计划者的一部分。
translated by 谷歌翻译
查询图形构建旨在通过知识图构建正确的可执行SPARQL以应答自然语言问题。虽然最近的方法通过基于NN的查询图排名进行了良好,但更复杂的问题带来了三个新的挑战:复杂的SPARQL语法,排名的巨大搜索空间,以及当地歧义的嘈杂查询图。本文处理了这些挑战。最初,我们将常见的复杂sparql语法视为包括顶点和边缘的子图,并提出了一个新的统一查询图语法来调整它们。随后,我们提出了一种新的两阶段方法来构建查询图。在第一阶段,通过简单的策略作为候选实例收集了顶级的k $相关的实例(实体,关系等)。在第二阶段,图形生成模型执行分层生成。它首先概述了一个图形结构,其顶点和边缘是空插槽,然后将适当的实例填充到槽中,从而完成查询图。我们的方法将整个查询图的无法忍受的搜索空间分解为经济实惠的操作子空间,同时利用全局结构信息来消除局部歧义。实验结果表明,我们的方法大大提高了最坚定的kgqa基准,在复杂问题上具有出色的性能。
translated by 谷歌翻译
科学家在寻找最佳的输入资源来解决目标预测任务的最佳输入资源方面的困难是在知识图图图上训练算法的主要障碍之一。除此之外,一个关键的挑战是确定如何操纵(和嵌入)这些数据,这些数据通常以特定的三元组(即主题,谓词,对象)的形式来启用学习过程。在本文中,我们描述了Liveschema倡议,即一个门户,该网关提供了一个服务家庭,可以轻松访问,分析,转换和利用知识图模式,其主要目标是促进这些资源在机器学习用例中的重复使用。作为该计划的早期实施,我们还推进了一个在线目录,该目录依赖于800多个资源,并提供了第一组示例服务。
translated by 谷歌翻译
我们根据生态毒理学风险评估中使用的主要数据来源创建了知识图表。我们已经将这种知识图表应用于风险评估中的重要任务,即化学效果预测。我们已经评估了在该预测任务的各种几何,分解和卷积模型中嵌入模型的九个知识图形嵌入模型。我们表明,使用知识图形嵌入可以提高与神经网络的效果预测的准确性。此外,我们已经实现了一种微调架构,它将知识图形嵌入到效果预测任务中,并导致更好的性能。最后,我们评估知识图形嵌入模型的某些特征,以阐明各个模型性能。
translated by 谷歌翻译
图数据管理和查询具有许多实际应用。当图形非常异构和/或用户不熟悉其结构时,即使用户无法描述连接,他们也可能需要找到如何在图中连接两个或多个节点的组。这仅由现有查询语言部分支持,这些语言允许搜索路径,但不适合连接三个或更多节点组的树。后者与NP-HARD组Steiner树问题有关,以前已考虑用于数据库中的关键字搜索。在这项工作中,我们正式展示了如何在诸如SPARQL或Cypher之类的图形语言中集成连接的树模式(CTPS,简称CTP),从而导致扩展查询语言(或简而言之)。然后,我们研究一组评估CTP的算法;我们概括了先前的关键字搜索工作,最重要的是(i)考虑双向边缘遍历遍历和(ii)允许用户选择任何分数功能来排名CTP结果。为了应对非常大的搜索空间,我们提出了一种有效的修剪技术,并正式建立了大量的情况,即使我们的算法molesp也可以完成修剪。我们的实验验证了我们在大量合成和现实世界中的CTP和EQL评估算法的性能。
translated by 谷歌翻译
人工智能(AI)对计算的巨大需求正在推动对AI的硬件和软件系统的无与伦比的投资。这导致了专用硬件设备数量的爆炸,现在由主要的云供应商提供。通过通过基于张量的界面隐藏低级复杂性,张量计算运行时间(TCR)(例如Pytorch)允许数据科学家有效利用新硬件提供的令人兴奋的功能。在本文中,我们探讨了数据库管理系统如何在AI空间中乘坐创新浪潮。我们设计,构建和评估张量查询处理器(TQP):TQP将SQL查询转换为张量程序,并在TCR上执行它们。 TQP能够通过在张量例程中实现与关系运算符的新颖算法来运行完整的TPC-H基准。同时,TQP可以支持各种硬件,而仅需要通常的开发工作。实验表明,与专用CPU和仅GPU的系统相比,TQP可以将查询执行时间提高到10美元$ \ times $。最后,TQP可以加速查询ML预测和SQL端到端,并在CPU基线上输送高达9 $ \ times $速度。
translated by 谷歌翻译
访问公共知识库中可用的大量信息可能对那些不熟悉的SPARQL查询语言的用户可能很复杂。SPARQL中自然语言提出的问题的自动翻译有可能克服这个问题。基于神经机翻译的现有系统非常有效,但在识别出识别出训练集的词汇(OOV)的单词中很容易失败。查询大型本体的时,这是一个严重的问题。在本文中,我们将命名实体链接,命名实体识别和神经计算机翻译相结合,以将自然语言问题的自动转换为SPARQL查询。我们凭经验证明,我们的方法比在纪念碑,QALD-9和LC-QUAD V1上运行实验,我们的方法比现有方法更有效,并且对OOV单词进行了更有效的,并且是现有的方法,这些方法是众所周知的DBPedia的相关数据集。
translated by 谷歌翻译
叙事制图是一项学科,研究了故事和地图的交织性质。然而,叙述的传统地理化技术经常遇到几个突出的挑战,包括数据采集和一体化挑战和语义挑战。为了解决这些挑战,在本文中,我们提出了具有知识图表(KGS)的叙事制图的想法。首先,要解决数据采集和集成挑战,我们开发了一组基于KG的地理学工具箱,以允许用户从GISYstem内搜索和检索来自集成跨域知识图中的相关数据以获得来自GISYSTEM的叙述映射。在此工具的帮助下,来自KG的检索数据以GIS格式直接实现,该格式已准备好用于空间分析和映射。两种用例 - 麦哲伦的远征和第二次世界大战 - 被提出展示了这种方法的有效性。与此同时,从这种方法中确定了几个限制,例如数据不完整,语义不相容,以及地理化的语义挑战。对于后面的两个限制,我们为叙事制图提出了一个模块化本体,它将地图内容(地图内容模块)和地理化过程(制图模块)正式化。我们证明,通过代表KGS(本体)中的地图内容和地理化过程,我们可以实现数据可重用性和叙事制图的地图再现性。
translated by 谷歌翻译
System auditing has emerged as a key approach for monitoring system call events and investigating sophisticated attacks. Based on the collected audit logs, research has proposed to search for attack patterns or track the causal dependencies of system events to reveal the attack sequence. However, existing approaches either cannot reveal long-range attack sequences or suffer from the dependency explosion problem due to a lack of focus on attack-relevant parts, and thus are insufficient for investigating complex attacks. To bridge the gap, we propose Zebra, a system that synergistically integrates attack pattern search and causal dependency tracking for efficient attack investigation. With Zebra, security analysts can alternate between search and tracking to reveal the entire attack sequence in a progressive, user-guided manner, while mitigating the dependency explosion problem by prioritizing the attack-relevant parts. To enable this, Zebra provides (1) an expressive and concise domain-specific language, Tstl, for performing various types of search and tracking analyses, and (2) an optimized language execution engine for efficient execution over a big amount of auditing data. Evaluations on a broad set of attack cases demonstrate the effectiveness of Zebra in facilitating a timely attack investigation.
translated by 谷歌翻译
DBpedia is a community effort to extract structured information from Wikipedia and to make this information available on the Web. DBpedia allows you to ask sophisticated queries against datasets derived from Wikipedia and to link other datasets on the Web to Wikipedia data. We describe the extraction of the DBpedia datasets, and how the resulting information is published on the Web for human-and machine-consumption. We describe some emerging applications from the DBpedia community and show how website authors can facilitate DBpedia content within their sites. Finally, we present the current status of interlinking DBpedia with other open datasets on the Web and outline how DBpedia could serve as a nucleus for an emerging Web of open data.
translated by 谷歌翻译
多跳跃逻辑推理是在知识图(KGS)上学习领域的一个已建立问题。它涵盖了单跳连接预测以及其他更复杂的逻辑查询类型。现有的算法仅在经典的三重基图上运行,而现代KG经常采用超相关的建模范式。在此范式中,键入的边缘可能具有几对键值对,称为限定符,可为事实提供细粒度的环境。在查询中,此上下文修改了关系的含义,通常会减少答案集。经常在现实世界中的应用程序中观察到超相关的查询,并且现有的近似查询答案方法无法使用预选赛对。在这项工作中,我们弥合了这一差距,并将多跳的推理问题扩展到了超级关系的KG,允许解决这一新类型的复杂查询。在图形神经网络和查询嵌入技术的最新进展之下,我们研究了如何嵌入和回答超相关的连词查询。除此之外,我们还提出了一种回答此类查询并在我们的实验中证明的方法,即预选赛可以改善对各种查询模式的查询回答。
translated by 谷歌翻译
Answering complex questions over textual resources remains a challenging problem$\unicode{x2013}$especially when interpreting the fine-grained relationships among multiple entities that occur within a natural-language question or clue. Curated knowledge bases (KBs), such as YAGO, DBpedia, Freebase and Wikidata, have been widely used in this context and gained great acceptance for question-answering (QA) applications in the past decade. While current KBs offer a concise representation of structured knowledge, they lack the variety of formulations and semantic nuances as well as the context of information provided by the natural-language sources. With BigText-QA, we aim to develop an integrated QA system which is able to answer questions based on a more redundant form of a knowledge graph (KG) that organizes both structured and unstructured (i.e., "hybrid") knowledge in a unified graphical representation. BigText-QA thereby is able to combine the best of both worlds$\unicode{x2013}$a canonical set of named entities, mapped to a structured background KB (such as YAGO or Wikidata), as well as an open set of textual clauses providing highly diversified relational paraphrases with rich context information.
translated by 谷歌翻译
庞大的科学出版物呈现出越来越大的挑战,找到与给定的研究问题相关的那些,并在其基础上做出明智的决定。如果不使用自动化工具,这变得非常困难。在这里,一个可能的改进区域是根据其主题自动分类出版物摘要。这项工作介绍了一种新颖的知识基础的出色出版物分类器。该方法侧重于实现可扩展性和对其他域的容易适应性。在非常苛刻的食品安全领域,分类速度和准确度被证明是令人满意的。需要进一步发展和评估该方法,因为所提出的方法显示出很大的潜力。
translated by 谷歌翻译
近年来,数据科学已经显着发展。数据分析和采矿过程成为可用数据集的所有行业的常规。已收集,策划,存储和用于提取知识的大量数据存储库。这变得司空见惯。随后,我们直接从数据或通过给定域中的专家提取大量知识。现在的挑战是如何利用以前因高效决策过程而闻名的所有这些知识。直到最近,通过多年的研究获得的许多知识都存储在静态知识库或本体中,而从数据挖掘研究中获得的更多样化和动态知识并没有集中和始终如一地管理。在这项研究中,我们提出了一个称为基于本体的知识图的新型模型,以代表和存储农作物耕作中数据挖掘的结果(知识),以建立,维护和丰富知识发现过程。提出的模型包括六个主要集合:概念,属性,关系,转换,实例和状态。该模型是动态的,可以随时促进知识的访问,更新和开发。本文还提出了用于处理这种基于知识模型的体系结构。系统体系结构包括知识建模,提取,评估,发布和开发。该系统已被实施并用于农业管理和监测。事实证明,它非常有效,并且有望扩展到其他领域。
translated by 谷歌翻译
对生产系统的事件数据的分析是与行业4.0相关的许多应用程序的基础。但是,在该域中很常见异质性和不相交数据。结果,事件的上下文信息可能不完整或不正确地解释,从而导致次优分析结果。本文提出了一种根据事件数据的上下文(例如产品类型,过程类型或过程参数)访问生产系统事件数据的方法。该方法通过组合从数据库系统中提取过滤的事件日志:1)生产系统层次结构的语义模型,2)正式的过程描述和3)OPC UA信息模型。作为概念证明,我们使用基于OPC UA的机械伴侣规范的示例服务器演示了我们的方法。
translated by 谷歌翻译
众所周知,加入操作(尤其是N-Way,多到许多人的加入)是耗时和资源的。在大尺度上,关于桌子和联接量的大小,当前的最新方法(包括使用嵌套环/哈希/排序 - 合并算法的二进制加入算法,或者,或者,最糟糕的案例最佳连接算法(wojas)),甚至可能无法给定合理的资源和时间限制产生任何答案。在这项工作中,我们介绍了一种新的n-way qui-join处理方法,即图形结合(GJ)。关键想法是两个方面:首先,将物理连接计算问题映射到PGMS并引入调整的推理算法,该算法可以计算基于运行的编码(RLE)基于连接的汇总摘要,并需要实现结合结果所必需的所有统计信息。其次,也是最重要的是,要表明,像GJ这样的联接算法(像GJ一样)产生了上述联接介绍摘要,然后对其进行删除,可以在时空中引入巨大的性能优势。通过工作,TPCD和LASTFM数据集的加入查询进行了全面的实验,将GJ与PostgreSQL和MonetDB进行了比较,以及UMBRA系统中实现的最先进的WOJA。内存中加入计算的结果表明,性能改善的速度分别比PostgreSQL,MONETDB和UMBRA快64倍,388倍和6倍。对于磁盘加入计算,GJ的速度比PostgreSQL,MONETDB和UMBRA的速度分别高达820X,717X和165X。此外,GJ空间需求分别高达21,488倍,38,333倍和78,750倍,分别比PostgreSQL,MonetDB和Umbra小。
translated by 谷歌翻译
Large language models have demonstrated outstanding performance on a wide range of tasks such as question answering and code generation. On a high level, given an input, a language model can be used to automatically complete the sequence in a statistically-likely way. Based on this, users prompt these models with language instructions or examples, to implement a variety of downstream tasks. Advanced prompting methods can even imply interaction between the language model, a user, and external tools such as calculators. However, to obtain state-of-the-art performance or adapt language models for specific tasks, complex task- and model-specific programs have to be implemented, which may still require ad-hoc interaction. Based on this, we present the novel idea of Language Model Programming (LMP). LMP generalizes language model prompting from pure text prompts to an intuitive combination of text prompting and scripting. Additionally, LMP allows constraints to be specified over the language model output. This enables easy adaption to many tasks, while abstracting language model internals and providing high-level semantics. To enable LMP, we implement LMQL (short for Language Model Query Language), which leverages the constraints and control flow from an LMP prompt to generate an efficient inference procedure that minimizes the number of expensive calls to the underlying language model. We show that LMQL can capture a wide range of state-of-the-art prompting methods in an intuitive way, especially facilitating interactive flows that are challenging to implement with existing high-level APIs. Our evaluation shows that we retain or increase the accuracy on several downstream tasks, while also significantly reducing the required amount of computation or cost in the case of pay-to-use APIs (13-85% cost savings).
translated by 谷歌翻译