本体学的正确性和完整性质量对于开发基于本体的应用程序至关重要。传统的调试技术通过删除不必要的公理来修复本体,但可能因此消除了本体域中正确的后果。在本文中,我们提出了一种交互式方法,以通过公理削弱和完成来减轻$ \ Mathcal {el} $本体。我们提出了用于削弱和完成的算法,并提出了修复的第一种方法,该方法考虑了去除,削弱和完成的方法。我们展示了不同的组合策略,讨论对最终本体论的影响并显示实验结果。我们表明,以前的工作仅考虑了特殊案例,并且在正确性和完整性方面,针对领域专家的验证工作数量与本体质量之间存在权衡。
translated by 谷歌翻译
现实世界的语义或基于知识的系统,例如在生物医学领域,可能会变得大而复杂。因此,对此类系统知识库中故障的本地化和修复的工具支持对于它们的实际成功至关重要。相应地,近年来提出了许多知识库调试方法,尤其是基于本体的系统。基于查询的调试是一种相似的交互式方法,它通过向知识工程师提出一系列问题来定位观察到的问题的真正原因。存在这种方法的具体实现,例如本体论编辑器的OntodeBug插件prof \'eg \'e。为了验证新提出的方法比现有方法有利,研究人员通常依靠基于模拟的比较。但是,这种评估方法有一定的局限性,并且通常无法完全告知我们方法的真实性。因此,我们进行了不同的用户研究,以评估基于查询的本体调试的实际价值。研究的一个主要见解是,所考虑的交互方法确实比基于测试案例的替代算法调试更有效。我们还观察到,用户经常在此过程中犯错误,这突出了对用户需要回答的查询的仔细设计的重要性。
translated by 谷歌翻译
知识表示中的一个突出问题是如何应对域名知识的本体的隐性后果来回回答查询。虽然这个问题在描述逻辑本体的领域中已被广泛研究,但在模糊或不精确的知识的背景下,令人惊讶地忽略了忽视,特别是从数学模糊逻辑的角度来看。在本文中,我们研究了应答联合查询和阈值查询的问题。模糊DL-Lite中的本体。具体而言,我们通过重写方法展示阈值查询应答W.r.t.一致的本体中仍保持在数据复杂性的$ AC_0 $中,但该联合查询应答高度依赖于所选三角标准,这对底层语义产生了影响。对于IDEMPodent G \“Odel T-Norm,我们提供了一种基于古典案例的减少的有效方法。本文在理论和实践中正在考虑和逻辑编程(TPLP)的实践。
translated by 谷歌翻译
当本体学达到一定的规模和复杂性时,几乎无法避免诸如不一致,不满意的课程或错误的课程等故障。找到导致这些故障的不正确的公理是一项艰巨且耗时的任务。在解决这个问题时,已经提出了几种针对本体学中半自动断层定位的技术。通常,这些方法涉及一个人类专家,该专家为有关预期(正确)本体的系统生成的问题提供答案,以减少可能的故障位置。为了提出尽可能多的信息性问题,现有的方法借鉴了各种算法优化以及启发式方法。但是,这些计算通常基于有关交互用户的某些假设。在这项工作中,我们表征和讨论不同的用户类型,并表明现有方法并不能为所有用户实现最佳效率。作为一种补救措施,我们建议一种新型的专家问题,旨在适合所有分析专家的答案行为。此外,我们提出了一种算法,以优化与现场使用的(尝试和测试的)启发式方法完全兼容的新查询类型。关于现实世界中错误的实验表明,新的查询方法的潜力是将专家咨询时间最小化,而与专家类型无关。此外,获得的见解可以为互动调试工具的设计提供信息,以更好地满足用户的需求。
translated by 谷歌翻译
在概念学习,数据库查询的反向工程,生成参考表达式以及知识图中的实体比较之类的应用中,找到以标记数据项形式分开的逻辑公式,该公式分开以标记数据项形式给出的正面和负面示例。在本文中,我们研究了存在本体论的数据的分离公式的存在。对于本体语言和分离语言,我们都专注于一阶逻辑及其以下重要片段:描述逻辑$ \ Mathcal {alci} $,受保护的片段,两变量的片段和受保护的否定片段。为了分离,我们还考虑(工会)连接性查询。我们考虑了几种可分离性,这些可分离性在负面示例的治疗中有所不同,以及他们是否承认使用其他辅助符号来实现分离。我们的主要结果是(所有变体)可分离性,不同语言的分离能力的比较以及确定可分离性的计算复杂性的研究。
translated by 谷歌翻译
实际应用程序中使用的答案集程序通常要求该程序可与不同的输入数据一起使用。但是,这通常会导致矛盾的陈述,从而导致不一致的程序。计划中潜在矛盾的原因是相互矛盾的规则。在本文中,我们展示了如何确保程序$ \ mathcal {p} $在给定任何允许的输入数据的情况下仍然是无偶数的。为此,我们介绍了解决冲突的$ \ lambda $ - 扩展名的概念。解决冲突规则$ r $的解决冲突的$ \ lambda $ - 是(默认)文字的设置$ \ lambda $,使得将$ r $的$ r $ ty $ \ lambda $延长到$ \ lambda $解决所有冲突$ r $的所有冲突立刻。我们调查了合适的$ \ lambda $ - 扩展应具有并在此基础上建立的属性,我们制定了一种策略,以计算每个相互冲突的$ \ lambda $ - extensions in $ \ Mathcal {p} $中的每个冲突规则。我们表明,通过实施冲突解决过程,该过程使用$ \ lambda $ extensions连续解决冲突,最终产生了一个程序,该程序在给定任何允许的输入数据的情况下仍然是非矛盾的。
translated by 谷歌翻译
我们根据描述逻辑ALC和ALCI介绍并研究了本体论介导的查询的几个近似概念。我们的近似值有两种:我们可以(1)用一种以易访问的本体语言为例,例如ELI或某些TGD,以及(2)用可拖动类的一个替换数据库,例如其treewidth的数据库,由常数界定。我们确定所得近似值的计算复杂性和相对完整性。(几乎)所有这些都将数据复杂性从Conp-Complete降低到Ptime,在某些情况下甚至是固定参数可拖动和线性时间。虽然种类(1)的近似也降低了综合复杂性,但这种近似(2)往往并非如此。在某些情况下,联合复杂性甚至会增加。
translated by 谷歌翻译
本文迈出了从实验中学习的逻辑的第一步。为此,我们调查了建模因果和(定性)认知推理的相互作用的正式框架。对于我们的方法至关重要是一种干预概念的想法,可以用作(真实或假设的)实验的正式表达。在第一步中,我们将众所周知的因果模型与代理人的认知状态的简单HITIKKA样式表示。在生成的设置中,不仅可以对关于变量值的知识以及干预措施如何影响它们,而且可以对其进行交谈,而且还可以谈论知识更新。由此产生的逻辑可以模拟关于思想实验的推理。但是,它无法解释从实验中学习,这显然是由它验证干预措施没有学习原则的事实。因此,在第二步中,我们实现更复杂的知识概念,该知识概念允许代理在进行实验时观察(测量)某些变量。该扩展系统确实允许从实验中学习。对于所有提出的逻辑系统,我们提供了一种声音和完整的公理化。
translated by 谷歌翻译
忘记 - 或可变消除 - 是一种允许从知识库中删除中间变量的操作,不再被视为相关。近年来,已经提出了许多忘记答案编程的不同方法,以特定运营商或这些运营商的类别,通常遵循不同的原则并遵守不同的性质。开发了每个这样的方法,以解决忘记某些特定的观点,旨在遵守在这种观点中认为所希望的特定属性,但缺少所有现有运营商和属性的全面和统一概述。在本文中,我们彻底检查了现有的属性和(类别的)运营商忘记了答案集编程,绘制了这些遗忘运营商的景观的完整图片,其中包括许多新颖的属性和运营商之间关系的结果,包括考虑因素在混凝土运营商上,计算遗忘和计算复杂性的结果。我们的目标是提供指导,帮助用户选择运营商最适合其应用要求。
translated by 谷歌翻译
在本文中,我们建立了模糊和优惠语义之间的联系,用于描述逻辑和自组织地图,这些地图已被提出为可能的候选人来解释类别概括的心理机制。特别是,我们表明,在训练之后的自组织地图的输入/输出行为可以通过模糊描述逻辑解释以及基于概念 - 方面的多次方法语义来描述逻辑解释以及考虑偏好的优先解释关于不同的概念,最近提出了排名和加权污染描述逻辑。可以通过模型检查模糊或优先解释来证明网络的属性。从模糊解释开始,我们还为此神经网络模型提供了概率账户。
translated by 谷歌翻译
在过去几年的几十年中,致力于更新稳定模型语义(AKA答案设置程序)下更新逻辑计划的问题,或者换句话说,表现出培养结果的问题 - 当它描述更改时,遵守逻辑程序。而最先进的方法是在古典逻辑背景下的相同基本的直觉和愿望被指导,他们基于根本不同的原则和方法,这阻止了可以拥抱两个信念的统一框架规则更新。在本文中,我们将概述与答案设置的编程更新相关的一些主要方法和结果,同时指出本主题研究的一些主要挑战。
translated by 谷歌翻译
在使用描述逻辑本体论时,理解描述逻辑推理器得出的需要并不总是直接。到目前为止,标准的本体编辑器prot \'eg \'e提供了两种服务来帮助:(黑盒)owl 2 dl本科学的理由,以及(玻璃盒)对轻质猫头鹰的证明,后者在其中利用后者利用了。推理麋鹿的证明设施。由于理由通常不足以解释推论,因此仅几乎没有工具支持来解释更具表现力的DLS中的推论。在本文中,我们介绍了Evee-libs,这是一个用于计算DLS到炼金术的Java库和Evee-Protege,这是一个prot \'eg'eg'e插件的集合,用于在prot \'eg'eg'e中显示这些证明。我们还简要介绍了最新版本的evonne,这是一个更高级的独立应用程序,用于显示和与用evee-libs计算的证据进行交互。
translated by 谷歌翻译
形状约束语言(SHACL)是通过验证图表上的某些形状来验证RDF数据的最新W3C推荐语言。先前的工作主要集中在验证问题上,并且仅针对SHACL的简化版本研究了对设计和优化目的至关重要的可满足性和遏制的标准决策问题。此外,SHACL规范不能定义递归定义的约束的语义,这导致文献中提出了几种替代性递归语义。尚未研究这些不同语义与重要决策问题之间的相互作用。在本文中,我们通过向新的一阶语言(称为SCL)的翻译提供了对SHACL的不同特征的全面研究,该语言精确地捕获了SHACL的语义。我们还提出了MSCL,这是SCL的二阶扩展,它使我们能够在单个形式的逻辑框架中定义SHACL的主要递归语义。在这种语言中,我们还提供了对过滤器约束的有效处理,这些滤镜经常在相关文献中被忽略。使用此逻辑,我们为不同的SHACL片段的可满足性和遏制决策问题提供了(联合)可决定性和复杂性结果的详细图。值得注意的是,我们证明这两个问题对于完整的语言都是不可避免的,但是即使面对递归,我们也提供了有趣的功能的可决定性组合。
translated by 谷歌翻译
已经提出了几种类型的依赖关系,用于对存在规则本体的静态分析,有望对计算属性的见解以及一组规则(例如,基于本体的查询答案)的实际使用。不幸的是,这些依赖性很少实施,因此在实践中几乎没有实现它们的潜力。我们专注于两种规则依赖性 - 积极的relians和限制 - 以及为其有效计算设计和实施优化的算法。关于多达100,000多个规则的现实本体论实验显示了我们方法的可扩展性,这使我们能够实现一些先前提出的应用程序作为实际案例研究。特别是,我们可以在何种程度上分析基于规则的自下而上的推理方法可以保证在实际本体论中产生无冗余的“精益”知识图(所谓的核心)。
translated by 谷歌翻译
我们从参数化复杂性理论的角度研究了本体论介导的查询(OMQ)的评估。作为本体语言,我们考虑描述逻辑$ \ MATHCAL {ALC} $和$ \ MATHCAL {ALCI} $以及一阶逻辑的受保护的两种可变性片段GF $ _2 $。查询是原子查询(AQS),结合查询(CQS)和CQ的工会。当参数是OMQ和cliquewidth的大小时,所有研究的OMQ问题都是固定参数线性(FPL)。我们的主要贡献是对运行时间对参数的依赖性的详细分析,表现出几种有趣的效果。
translated by 谷歌翻译
Candidate axiom scoring is the task of assessing the acceptability of a candidate axiom against the evidence provided by known facts or data. The ability to score candidate axioms reliably is required for automated schema or ontology induction, but it can also be valuable for ontology and/or knowledge graph validation. Accurate axiom scoring heuristics are often computationally expensive, which is an issue if you wish to use them in iterative search techniques like level-wise generate-and-test or evolutionary algorithms, which require scoring a large number of candidate axioms. We address the problem of developing a predictive model as a substitute for reasoning that predicts the possibility score of candidate class axioms and is quick enough to be employed in such situations. We use a semantic similarity measure taken from an ontology's subsumption structure for this purpose. We show that the approach provided in this work can accurately learn the possibility scores of candidate OWL class axioms and that it can do so for a variety of OWL class axioms.
translated by 谷歌翻译
Neural-symbolic computing aims at integrating robust neural learning and sound symbolic reasoning into a single framework, so as to leverage the complementary strengths of both of these, seemingly unrelated (maybe even contradictory) AI paradigms. The central challenge in neural-symbolic computing is to unify the formulation of neural learning and symbolic reasoning into a single framework with common semantics, that is, to seek a joint representation between a neural model and a logical theory that can support the basic grounding learned by the neural model and also stick to the semantics of the logical theory. In this paper, we propose differentiable fuzzy $\mathcal{ALC}$ (DF-$\mathcal{ALC}$) for this role, as a neural-symbolic representation language with the desired semantics. DF-$\mathcal{ALC}$ unifies the description logic $\mathcal{ALC}$ and neural models for symbol grounding; in particular, it infuses an $\mathcal{ALC}$ knowledge base into neural models through differentiable concept and role embeddings. We define a hierarchical loss to the constraint that the grounding learned by neural models must be semantically consistent with $\mathcal{ALC}$ knowledge bases. And we find that capturing the semantics in grounding solely by maximizing satisfiability cannot revise grounding rationally. We further define a rule-based loss for DF adapting to symbol grounding problems. The experiment results show that DF-$\mathcal{ALC}$ with rule-based loss can improve the performance of image object detectors in an unsupervised learning way, even in low-resource situations.
translated by 谷歌翻译
复杂的推理问题是使用逻辑规则最清楚,很容易指定的,但是需要具有汇总的递归规则,例如计数和总和用于实际应用。不幸的是,此类规则的含义是一个重大挑战,导致许多不同的语义分歧。本文介绍了与汇总的递归规则的统一语义,扩展了统一的基础语义和约束语义,以否定为递归规则。关键思想是支持对不同语义基础的不同假设的简单表达,并正交使用其简单的含义来解释聚合操作。我们介绍了语义的形式定义,证明了语义的重要特性,并与先前的语义相比。特别是,我们提出了对聚集的有效推断,该推论为我们从文献中研究的所有示例提供了精确的答案。我们还将语义应用于各种挑战的示例,并表明我们的语义很简单,并且在所有情况下都与所需的结果相匹配。最后,我们描述了最具挑战性的示例实验,当他们可以计算正确的答案时,表现出与知名系统相比出现的出色性能。
translated by 谷歌翻译
我们概述了在其知识表示和声明问题解决的应用中的视角下的时间逻辑编程。这些程序是将通常规则与时间模态运算符组合的结果,如线性时间时间逻辑(LTL)。我们专注于最近的非单调形式主义的结果​​称为时间平衡逻辑(电话),该逻辑(电话)为LTL的全语法定义,但是基于平衡逻辑执行模型选择标准,答案集编程的众所周知的逻辑表征(ASP )。我们获得了稳定模型语义的适当延伸,以进行任意时间公式的一般情况。我们记得电话和单调基础的基本定义,这里的时间逻辑 - 和那里(THT),并研究无限和有限迹线之间的差异。我们还提供其他有用的结果,例如将转换成其他形式主义,如量化的平衡逻辑或二阶LTL,以及用于基于自动机计算的时间稳定模型的一些技术。在第二部分中,我们专注于实际方面,定义称为较近ASP的时间逻辑程序的句法片段,并解释如何在求解器Telingo的构建中被利用。
translated by 谷歌翻译
归纳逻辑编程(ILP)是一种机器学习的形式。ILP的目标是诱导推广培训示例的假设(一组逻辑规则)。随着ILP转30,我们提供了对该领域的新介绍。我们介绍了必要的逻辑符号和主要学习环境;描述ILP系统的构建块;比较几个维度的几个系统;描述四个系统(Aleph,Tilde,Aspal和Metagol);突出关键应用领域;最后,总结了未来研究的当前限制和方向。
translated by 谷歌翻译