我们提出了答案设置的程序,该程序指定和计算在分类模型上输入的实体的反事实干预。关于模型的结果,生成的反事实作为定义和计算分类所在实体的特征值的基于因果的解释分数的基础,即“责任分数”。方法和程序可以应用于黑盒式模型,也可以使用可以指定为逻辑程序的模型,例如基于规则的分类器。这项工作的主要重点是“最佳”反事实体的规范和计算,即导致最大责任分数的人。从它们中可以从原始实体中读取解释作为最大责任特征值。我们还扩展程序以引入图片语义或域知识。我们展示如何通过概率方法扩展方法,以及如何通过使用约束来修改潜在的概率分布。示出了在DLV ASP-Solver的语法中写入的若干程序,并与其运行。
translated by 谷歌翻译
我们简要描述 - 主要通过非常简单的示例 - 不同类型的答案程序程序,并提出了用于指定的注释:数据库维修和一致的查询答案;与他们的保密观点和查询评估;数据库中因果关系的反事实干预;以及机器学习中的基于反事实的解释。
translated by 谷歌翻译
回答集编程(ASP)已成为一种流行的和相当复杂的声明问题解决方法。这是由于其具有吸引力的地址解决方案的工作流程,这是可以轻松解决问题解决的方法,即使对于计算机科学外的守护者而言。与此不同,底层技术的高度复杂性使得ASP专家越来越难以将想法付诸实践。有关解决此问题,本教程旨在使用户能够构建自己的基于ASP的系统。更确切地说,我们展示了ASP系统Clingo如何用于扩展ASP和实现定制的专用系统。为此,我们提出了两个替代方案。我们从传统的AI技术开始,并展示元编程如何用于扩展ASP。这是一种相当轻的方法,依赖于Clingo的reation特征来使用ASP本身表达新功能。与此不同,本教程的主要部分使用传统的编程(在Python中)来通过其应用程序编程接口操纵Clingo。这种方法允许改变和控制ASP的整个模型 - 地面解决工作流程。 COMENT of Clingo的新应用程序课程使我们能够通过自定义类似于Clingo中的进程来绘制Clingo的基础架构。例如,我们可能会互动到程序的抽象语法树,控制各种形式的多射击求解,并为外国推论设置理论传播者。另一种横截面结构,跨越元以及应用程序编程是Clingo的中间格式,即指定底层接地器和求解器之间的界面。我们通过示例和几个非琐碎的案例研究说明了本教程的前述概念和技术。
translated by 谷歌翻译
归纳逻辑编程(ILP)是一种机器学习的形式。ILP的目标是诱导推广培训示例的假设(一组逻辑规则)。随着ILP转30,我们提供了对该领域的新介绍。我们介绍了必要的逻辑符号和主要学习环境;描述ILP系统的构建块;比较几个维度的几个系统;描述四个系统(Aleph,Tilde,Aspal和Metagol);突出关键应用领域;最后,总结了未来研究的当前限制和方向。
translated by 谷歌翻译
复杂的推理问题是使用逻辑规则最清楚,很容易指定的,但是需要具有汇总的递归规则,例如计数和总和用于实际应用。不幸的是,此类规则的含义是一个重大挑战,导致许多不同的语义分歧。本文介绍了与汇总的递归规则的统一语义,扩展了统一的基础语义和约束语义,以否定为递归规则。关键思想是支持对不同语义基础的不同假设的简单表达,并正交使用其简单的含义来解释聚合操作。我们介绍了语义的形式定义,证明了语义的重要特性,并与先前的语义相比。特别是,我们提出了对聚集的有效推断,该推论为我们从文献中研究的所有示例提供了精确的答案。我们还将语义应用于各种挑战的示例,并表明我们的语义很简单,并且在所有情况下都与所需的结果相匹配。最后,我们描述了最具挑战性的示例实验,当他们可以计算正确的答案时,表现出与知名系统相比出现的出色性能。
translated by 谷歌翻译
在过去几年的几十年中,致力于更新稳定模型语义(AKA答案设置程序)下更新逻辑计划的问题,或者换句话说,表现出培养结果的问题 - 当它描述更改时,遵守逻辑程序。而最先进的方法是在古典逻辑背景下的相同基本的直觉和愿望被指导,他们基于根本不同的原则和方法,这阻止了可以拥抱两个信念的统一框架规则更新。在本文中,我们将概述与答案设置的编程更新相关的一些主要方法和结果,同时指出本主题研究的一些主要挑战。
translated by 谷歌翻译
我们概述了在其知识表示和声明问题解决的应用中的视角下的时间逻辑编程。这些程序是将通常规则与时间模态运算符组合的结果,如线性时间时间逻辑(LTL)。我们专注于最近的非单调形式主义的结果​​称为时间平衡逻辑(电话),该逻辑(电话)为LTL的全语法定义,但是基于平衡逻辑执行模型选择标准,答案集编程的众所周知的逻辑表征(ASP )。我们获得了稳定模型语义的适当延伸,以进行任意时间公式的一般情况。我们记得电话和单调基础的基本定义,这里的时间逻辑 - 和那里(THT),并研究无限和有限迹线之间的差异。我们还提供其他有用的结果,例如将转换成其他形式主义,如量化的平衡逻辑或二阶LTL,以及用于基于自动机计算的时间稳定模型的一些技术。在第二部分中,我们专注于实际方面,定义称为较近ASP的时间逻辑程序的句法片段,并解释如何在求解器Telingo的构建中被利用。
translated by 谷歌翻译
最近已经提出了几个查询和分数来解释对ML模型的个人预测。鉴于ML型号的灵活,可靠和易于应用的可解释性方法,我们预见了需要开发声明语言以自然地指定不同的解释性查询。我们以原则的方式通过源于逻辑,称为箔,允许表达许多简单但重要的解释性查询,并且可以作为更具表现力解释性语言的核心来实现这一语言。我们研究箔片查询的两类ML模型的计算复杂性经常被视为容易解释:决策树和OBDD。由于ML模型的可能输入的数量是尺寸的指数,因此箔评估问题的易易性是精细的,但是可以通过限制模型的结构或正在评估的箔片段来实现。我们还以高级声明语言包装的箔片的原型实施,并执行实验,表明可以在实践中使用这种语言。
translated by 谷歌翻译
我们提出了一种使用绑架过程,在给定的答案集编程(ASP)规则集(ASP)规则集方面生成可能的查询证明,该过程仅根据输入规则自动构建了陈腐的空间。给定一组(可能是空的)用户提供的事实,我们的方法会渗透到需要查询的任何其他事实,然后输出这些额外的事实,而无需用户需要明确指定所有占有无误的空间。我们还提出了一种方法,以生成与查询的理由图相对应的一组定向边缘。此外,通过不同形式的隐式术语替换,我们的方法可以考虑用户提供的事实并适当修改绑架解决方案。过去的绑架工作主要基于目标定向方法。但是,这些方法可能导致并非真正声明的求解器。关于实现绑架的绑架者,例如Clingo ASP求解器,做出的工作要少得多。我们描述了可以直接在Clingo中运行的新型ASP程序,以产生绑架解决方案和定向边缘集,而无需修改基础求解引擎。
translated by 谷歌翻译
This volume contains revised versions of the papers selected for the third volume of the Online Handbook of Argumentation for AI (OHAAI). Previously, formal theories of argument and argument interaction have been proposed and studied, and this has led to the more recent study of computational models of argument. Argumentation, as a field within artificial intelligence (AI), is highly relevant for researchers interested in symbolic representations of knowledge and defeasible reasoning. The purpose of this handbook is to provide an open access and curated anthology for the argumentation research community. OHAAI is designed to serve as a research hub to keep track of the latest and upcoming PhD-driven research on the theory and application of argumentation in all areas related to AI.
translated by 谷歌翻译
Two approaches to AI, neural networks and symbolic systems, have been proven very successful for an array of AI problems. However, neither has been able to achieve the general reasoning ability required for human-like intelligence. It has been argued that this is due to inherent weaknesses in each approach. Luckily, these weaknesses appear to be complementary, with symbolic systems being adept at the kinds of things neural networks have trouble with and vice-versa. The field of neural-symbolic AI attempts to exploit this asymmetry by combining neural networks and symbolic AI into integrated systems. Often this has been done by encoding symbolic knowledge into neural networks. Unfortunately, although many different methods for this have been proposed, there is no common definition of an encoding to compare them. We seek to rectify this problem by introducing a semantic framework for neural-symbolic AI, which is then shown to be general enough to account for a large family of neural-symbolic systems. We provide a number of examples and proofs of the application of the framework to the neural encoding of various forms of knowledge representation and neural network. These, at first sight disparate approaches, are all shown to fall within the framework's formal definition of what we call semantic encoding for neural-symbolic AI.
translated by 谷歌翻译
The most widely studied explainable AI (XAI) approaches are unsound. This is the case with well-known model-agnostic explanation approaches, and it is also the case with approaches based on saliency maps. One solution is to consider intrinsic interpretability, which does not exhibit the drawback of unsoundness. Unfortunately, intrinsic interpretability can display unwieldy explanation redundancy. Formal explainability represents the alternative to these non-rigorous approaches, with one example being PI-explanations. Unfortunately, PI-explanations also exhibit important drawbacks, the most visible of which is arguably their size. Recently, it has been observed that the (absolute) rigor of PI-explanations can be traded off for a smaller explanation size, by computing the so-called relevant sets. Given some positive {\delta}, a set S of features is {\delta}-relevant if, when the features in S are fixed, the probability of getting the target class exceeds {\delta}. However, even for very simple classifiers, the complexity of computing relevant sets of features is prohibitive, with the decision problem being NPPP-complete for circuit-based classifiers. In contrast with earlier negative results, this paper investigates practical approaches for computing relevant sets for a number of widely used classifiers that include Decision Trees (DTs), Naive Bayes Classifiers (NBCs), and several families of classifiers obtained from propositional languages. Moreover, the paper shows that, in practice, and for these families of classifiers, relevant sets are easy to compute. Furthermore, the experiments confirm that succinct sets of relevant features can be obtained for the families of classifiers considered.
translated by 谷歌翻译
近年来,人们对布尔功能的重新兴趣在解释可解释的AI(XAI)领域的二元分类器方面产生了兴趣。布尔函数的标准方法是命题逻辑。我们提出了一种ceteris paribus性质的模态语言,该语言支持有关二进制输入分类器及其属性的推理。我们研究一个分类器模型家庭,将其作为有关语言基础性的两个证明系统,并显示出我们的Axiomatics的完整性。此外,我们证明,我们模态语言的可满足性检查问题在无限变化的情况下是nexptime-complete,而在有限变量的情况下它变为多项式。在无限变化的情况下,我们还确定了我们语言的有趣的NP片段。我们利用语言来形式化反事实的条件以及各种解释概念,包括绑架,对比和反事实解释以及偏见。最后,我们介绍了我们的语言的两个扩展:通过分配的概念使分类器变化和认知扩展,可以表示分类器对实际输入的不确定性。
translated by 谷歌翻译
形状约束语言(SHACL)是通过验证图表上的某些形状来验证RDF数据的最新W3C推荐语言。先前的工作主要集中在验证问题上,并且仅针对SHACL的简化版本研究了对设计和优化目的至关重要的可满足性和遏制的标准决策问题。此外,SHACL规范不能定义递归定义的约束的语义,这导致文献中提出了几种替代性递归语义。尚未研究这些不同语义与重要决策问题之间的相互作用。在本文中,我们通过向新的一阶语言(称为SCL)的翻译提供了对SHACL的不同特征的全面研究,该语言精确地捕获了SHACL的语义。我们还提出了MSCL,这是SCL的二阶扩展,它使我们能够在单个形式的逻辑框架中定义SHACL的主要递归语义。在这种语言中,我们还提供了对过滤器约束的有效处理,这些滤镜经常在相关文献中被忽略。使用此逻辑,我们为不同的SHACL片段的可满足性和遏制决策问题提供了(联合)可决定性和复杂性结果的详细图。值得注意的是,我们证明这两个问题对于完整的语言都是不可避免的,但是即使面对递归,我们也提供了有趣的功能的可决定性组合。
translated by 谷歌翻译
众所周知,端到端的神经NLP体系结构很难理解,这引起了近年来为解释性建模的许多努力。模型解释的基本原则是忠诚,即,解释应准确地代表模型预测背后的推理过程。这项调查首先讨论了忠诚的定义和评估及其对解释性的意义。然后,我们通过将方法分为五类来介绍忠实解释的最新进展:相似性方法,模型内部结构的分析,基于反向传播的方法,反事实干预和自我解释模型。每个类别将通过其代表性研究,优势和缺点来说明。最后,我们从它们的共同美德和局限性方面讨论了上述所有方法,并反思未来的工作方向忠实的解释性。对于有兴趣研究可解释性的研究人员,这项调查将为该领域提供可访问且全面的概述,为进一步探索提供基础。对于希望更好地了解自己的模型的用户,该调查将是一项介绍性手册,帮助选择最合适的解释方法。
translated by 谷歌翻译
人工智能代理必须从周围环境中学到学习,并了解所学习的知识,以便做出决定。虽然从数据的最先进的学习通常使用子符号分布式表示,但是使用用于知识表示的一阶逻辑语言,推理通常在更高的抽象级别中有用。结果,将符号AI和神经计算结合成神经符号系统的尝试已经增加。在本文中,我们呈现了逻辑张量网络(LTN),一种神经组织形式和计算模型,通过引入许多值的端到端可分别的一阶逻辑来支持学习和推理,称为真实逻辑作为表示语言深入学习。我们表明LTN为规范提供了统一的语言,以及多个AI任务的计算,如数据聚类,多标签分类,关系学习,查询应答,半监督学习,回归和嵌入学习。我们使用TensorFlow2的许多简单的解释例实施和说明上述每个任务。关键词:神经组音恐怖症,深度学习和推理,许多值逻辑。
translated by 谷歌翻译
尽管在现代的机器学习算法的最新进展,其内在机制的不透明仍是采用的障碍。在人工智能系统灌输信心和信任,解释的人工智能已成为提高现代机器学习算法explainability的响应。归纳逻辑程序(ILP),符号人工智能的子场中,起着产生,因为它的直观的逻辑驱动框架的可解释的解释有希望的作用。 ILP有效利用绎推理产生从实例和背景知识解释的一阶分句理论。然而,在发展中通过ILP需要启发方法的几个挑战,在实践中他们的成功应用来解决。例如,现有的ILP系统通常拥有广阔的解空间,以及感应解决方案是对噪声和干扰非常敏感。本次调查总结在ILP的最新进展和统计关系学习和神经象征算法的讨论,其中提供给ILP协同意见。继最新进展的严格审查,我们划定观察的挑战,突出对发展不言自明的人工智能系统进一步ILP动机研究的潜在途径。
translated by 谷歌翻译
知识表示中的一个突出问题是如何应对域名知识的本体的隐性后果来回回答查询。虽然这个问题在描述逻辑本体的领域中已被广泛研究,但在模糊或不精确的知识的背景下,令人惊讶地忽略了忽视,特别是从数学模糊逻辑的角度来看。在本文中,我们研究了应答联合查询和阈值查询的问题。模糊DL-Lite中的本体。具体而言,我们通过重写方法展示阈值查询应答W.r.t.一致的本体中仍保持在数据复杂性的$ AC_0 $中,但该联合查询应答高度依赖于所选三角标准,这对底层语义产生了影响。对于IDEMPodent G \“Odel T-Norm,我们提供了一种基于古典案例的减少的有效方法。本文在理论和实践中正在考虑和逻辑编程(TPLP)的实践。
translated by 谷歌翻译
机器学习技术的不断增长的复杂性在实践中越来越多地使用,因此需要解释这些模型的预测和决策,通常用作黑盒。可解释的AI方法要么是基于数值的特征,旨在量化每个功能在预测或符号中提供某些形式的符号解释(例如反事实)的贡献。本文提出了一种名为asteryx的通用不可知论方法,允许同时生成符号解释和基于分数的解释。我们的方法是声明性的,它基于在等效符号表示中进行解释的模型的编码,后者用于生成特定两种类型的符号解释,这些解释是足够的原因和反事实。然后,我们将反映解释和特征W.R.T功能的相关性与某些属性相关联。我们的实验结果表明,拟议方法的可行性及其在提供符号和基于得分的解释方面的有效性。
translated by 谷歌翻译
本文迈出了从实验中学习的逻辑的第一步。为此,我们调查了建模因果和(定性)认知推理的相互作用的正式框架。对于我们的方法至关重要是一种干预概念的想法,可以用作(真实或假设的)实验的正式表达。在第一步中,我们将众所周知的因果模型与代理人的认知状态的简单HITIKKA样式表示。在生成的设置中,不仅可以对关于变量值的知识以及干预措施如何影响它们,而且可以对其进行交谈,而且还可以谈论知识更新。由此产生的逻辑可以模拟关于思想实验的推理。但是,它无法解释从实验中学习,这显然是由它验证干预措施没有学习原则的事实。因此,在第二步中,我们实现更复杂的知识概念,该知识概念允许代理在进行实验时观察(测量)某些变量。该扩展系统确实允许从实验中学习。对于所有提出的逻辑系统,我们提供了一种声音和完整的公理化。
translated by 谷歌翻译