在本文的标题为反事实解释的符号方法中,我们提出了一种新颖的符号方法,以提供分类器预测的反事实解释。与大多数解释方法相反,目标是了解数据的哪些部分以及在多大程度上有助于提出预测,反事实说明表明必须在数据中更改哪些功能才能更改此分类器预测。我们的方法是象征性的,因为它基于在等效的CNF公式中编码分类器的决策功能。在这种方法中,反事实解释被视为最小校正子集(MCS),这是知识基础赔偿中众所周知的概念。因此,这种方法利用了已经存在的MCS生成的已经存在和经过验证的解决方案的优势。我们对贝叶斯分类器的初步实验研究表明,这种方法在几个数据集上的潜力。
translated by 谷歌翻译
在本文中,标题为基于模型的SAT方法,用于符合符号解释列举,我们提出了一种通用的不可知论方法,允许生成不同和互补的符号解释。更确切地说,我们通过分析特征与输出之间的关系来生成解释以在本地解释单个预测。我们的方法使用预测模型的命题编码和基于SAT的设置来生成两种类型的符号解释,这些解释是足够的原因和反事实。图像分类任务的实验结果表明,拟议方法的可行性及其在提供充分的原因和反事实解释方面的有效性。
translated by 谷歌翻译
机器学习技术的不断增长的复杂性在实践中越来越多地使用,因此需要解释这些模型的预测和决策,通常用作黑盒。可解释的AI方法要么是基于数值的特征,旨在量化每个功能在预测或符号中提供某些形式的符号解释(例如反事实)的贡献。本文提出了一种名为asteryx的通用不可知论方法,允许同时生成符号解释和基于分数的解释。我们的方法是声明性的,它基于在等效符号表示中进行解释的模型的编码,后者用于生成特定两种类型的符号解释,这些解释是足够的原因和反事实。然后,我们将反映解释和特征W.R.T功能的相关性与某些属性相关联。我们的实验结果表明,拟议方法的可行性及其在提供符号和基于得分的解释方面的有效性。
translated by 谷歌翻译
The most widely studied explainable AI (XAI) approaches are unsound. This is the case with well-known model-agnostic explanation approaches, and it is also the case with approaches based on saliency maps. One solution is to consider intrinsic interpretability, which does not exhibit the drawback of unsoundness. Unfortunately, intrinsic interpretability can display unwieldy explanation redundancy. Formal explainability represents the alternative to these non-rigorous approaches, with one example being PI-explanations. Unfortunately, PI-explanations also exhibit important drawbacks, the most visible of which is arguably their size. Recently, it has been observed that the (absolute) rigor of PI-explanations can be traded off for a smaller explanation size, by computing the so-called relevant sets. Given some positive {\delta}, a set S of features is {\delta}-relevant if, when the features in S are fixed, the probability of getting the target class exceeds {\delta}. However, even for very simple classifiers, the complexity of computing relevant sets of features is prohibitive, with the decision problem being NPPP-complete for circuit-based classifiers. In contrast with earlier negative results, this paper investigates practical approaches for computing relevant sets for a number of widely used classifiers that include Decision Trees (DTs), Naive Bayes Classifiers (NBCs), and several families of classifiers obtained from propositional languages. Moreover, the paper shows that, in practice, and for these families of classifiers, relevant sets are easy to compute. Furthermore, the experiments confirm that succinct sets of relevant features can be obtained for the families of classifiers considered.
translated by 谷歌翻译
最近已经提出了几个查询和分数来解释对ML模型的个人预测。鉴于ML型号的灵活,可靠和易于应用的可解释性方法,我们预见了需要开发声明语言以自然地指定不同的解释性查询。我们以原则的方式通过源于逻辑,称为箔,允许表达许多简单但重要的解释性查询,并且可以作为更具表现力解释性语言的核心来实现这一语言。我们研究箔片查询的两类ML模型的计算复杂性经常被视为容易解释:决策树和OBDD。由于ML模型的可能输入的数量是尺寸的指数,因此箔评估问题的易易性是精细的,但是可以通过限制模型的结构或正在评估的箔片段来实现。我们还以高级声明语言包装的箔片的原型实施,并执行实验,表明可以在实践中使用这种语言。
translated by 谷歌翻译
我们从逻辑和公式大小方面概念化了解释性,在非常一般的环境中给出了许多相关的解释性定义。我们的主要兴趣是所谓的特殊解释问题,旨在解释输入模型中输入公式的真实价值。解释是一个最小尺寸的公式,(1)与输入模型上的输入公式一致,(2)将所涉及的真实价值传输到全球输入公式,即每个模型上。作为一个重要的例子,我们在这种情况下研究了命题逻辑,并表明在多项式层次结构的第二级中,特殊的解释性问题是完整的。我们还将在答案集编程中提供了此问题的实施,并研究了其与解释N-Queens和主导集合问题的答案有关的能力。
translated by 谷歌翻译
我们提出了一种改善机器学习(ML)决策树(DTS)的准确性拦截权衡的方法。特别是,我们将最大的满足技术应用于计算最低纯DTS(MPDT)。我们提高了先前方法的运行时,并证明这些MPDT可以优于ML Framework Sklearn生成的DTS的准确性。
translated by 谷歌翻译
尽管使用模型不合时宜的AI(XAI)观察到了进展,但模型 - 敏锐的XAI的情况可能会产生错误的解释。一种替代方法是所谓的XAI正式方法,其中包括PI解释。不幸的是,PI解释也表现出重要的缺点,其中最明显的是它们的大小。相关功能的计算可以用解释中的功能数量进行概率精度。但是,即使对于非常简单的分类器,相关特征的计算集的复杂性也是令人难以置信的。本文研究了幼稚贝叶斯分类器(NBC)相关集的计算,并表明这些集合在实践中很容易计算。此外,实验证实可以使用NBC获得简洁的相关特征集。
translated by 谷歌翻译
近年来,人们对布尔功能的重新兴趣在解释可解释的AI(XAI)领域的二元分类器方面产生了兴趣。布尔函数的标准方法是命题逻辑。我们提出了一种ceteris paribus性质的模态语言,该语言支持有关二进制输入分类器及其属性的推理。我们研究一个分类器模型家庭,将其作为有关语言基础性的两个证明系统,并显示出我们的Axiomatics的完整性。此外,我们证明,我们模态语言的可满足性检查问题在无限变化的情况下是nexptime-complete,而在有限变量的情况下它变为多项式。在无限变化的情况下,我们还确定了我们语言的有趣的NP片段。我们利用语言来形式化反事实的条件以及各种解释概念,包括绑架,对比和反事实解释以及偏见。最后,我们介绍了我们的语言的两个扩展:通过分配的概念使分类器变化和认知扩展,可以表示分类器对实际输入的不确定性。
translated by 谷歌翻译
我们详细阐述了布尔分类器$ \ sigma $的纠正概念。给定$ \ sigma $和某些背景知识$ t $,表征$ \ sigma $的方式必须更改为符合$ t $的新分类器$ \ sigma \ star t $。我们在这里重点关注单标签布尔分类器的特定情况,即有一个单个目标概念,任何实例都被分类为正(概念的元素)或负面(互补概念的元素)。在这种特定情况下,我们的主要贡献是双重的:(1)我们证明有一个独特的整流操作员$ \ star $满足假设,并且(2)当$ \ sigma $和$ t $是布尔电路时,我们会显示如何在$ \ sigma $和$ t $的大小上计算出相当于$ \ sigma \ star t $的分类电路;当$ \ sigma $和$ t $是决策树时,可以按$ \ sigma $和$ t $的大小计算出相当于$ \ sigma \ star t $的决策树。
translated by 谷歌翻译
增压树是主要的ML模型,表现出高度精度。但是,增压树几乎不可理解,每当将它们用于安全至关重要的应用中时,这都是一个问题。确实,在这种情况下,预期对所做预测的严格解释。最近的工作已经表明,如何使用自动推理技术来推导升压树的小节最小绑架解释。但是,在一般情况下,这种结合的解释的产生是棘手的。为了提高他们这一代的可扩展性,我们介绍了树木特定的解释的概念。我们表明,特定于树的解释是可以在多项式时间内计算的绑架解释。我们还解释了如何从特定于树的解释中得出亚群最小绑架性解释。各种数据集上的实验显示了利用树特定解释的计算益处,以得出亚群最小的绑架解释。
translated by 谷歌翻译
Posibilistic Logic是处理不确定和部分不一致信息的最扩展方法。关于正常形式,可能性推理的进步大多专注于字幕形式。然而,现实世界问题的编码通常导致非人(NC)公式和NC-To-Clausal翻译,产生严重的缺点,严重限制了字符串推理的实际表现。因此,通过计算其原始NC形式的公式,我们提出了几种贡献,表明可能在可能的非字词推理中也是可能的显着进展。 {\ em首先,我们定义了{\ em possibilistic over非词素知识库,}或$ \ mathcal {\ overline {h}} _ \ sigma $的类别,其中包括类:可能主义的喇叭和命题角 - NC。 $ \ mathcal {\ overline {h}} _ \ sigma $被显示为标准喇叭类的一种NC类似的。 {\ em hightly},我们定义{\ em possibilistic非字词单元分辨率,}或$ \ mathcal {u} _ \ sigma $,并证明$ \ mathcal {u} _ \ sigma $正确计算不一致程度$ \ mathcal {\ overline {h}} _ \ sigma $成员。 $ \ Mathcal {Ur} _ \ \ Sigma $之前未提出,并以人为人的方式制定,这会让其理解,正式证明和未来延伸到非人类决议。 {\ em第三},我们证明计算$ \ mathcal {\ overline {h}} _ \ sigma $成员的不一致程度是多项式时间。虽然可能存在于可能存在的逻辑中的贸易课程,但所有这些都是字符串,因此,$ \ mathcal {\ overline {h}} _ \ sigma $ of to是可能的主要推理中的第一个特征的多项式非锁友类。
translated by 谷歌翻译
我们提出了答案设置的程序,该程序指定和计算在分类模型上输入的实体的反事实干预。关于模型的结果,生成的反事实作为定义和计算分类所在实体的特征值的基于因果的解释分数的基础,即“责任分数”。方法和程序可以应用于黑盒式模型,也可以使用可以指定为逻辑程序的模型,例如基于规则的分类器。这项工作的主要重点是“最佳”反事实体的规范和计算,即导致最大责任分数的人。从它们中可以从原始实体中读取解释作为最大责任特征值。我们还扩展程序以引入图片语义或域知识。我们展示如何通过概率方法扩展方法,以及如何通过使用约束来修改潜在的概率分布。示出了在DLV ASP-Solver的语法中写入的若干程序,并与其运行。
translated by 谷歌翻译
突出非克劳兰(NC)公式的富有表现性比基于氏子型公式的指数更丰富。然而,氏菌效率优于非克劳尿的效率。实际上,后者的一个主要弱点是,虽然喇叭子宫公式以及喇叭算法,对于高效率至关重要,但是已经提出了非符号形式的喇叭状公式。为了克服这种弱点,我们通过将喇叭图案充分提升到NC形式,定义HOLE非字母(HORN-NC)公式的混合类$ \ MATHBB {H_ {NC}}。争论$ \ MATHBB {H_ {NC}} $以及未来的Horn-NC算法,应随着喇叭类的股份效率增加,增加非信用效率。其次,我们:(i)给出$ \ mathbb的紧凑,归纳定义{h_ {nc}} $; (ii)证明了句法$ \ mathbb {h_ {nc}} $ suppups over class,但语义上两个类都是等效的,并且(iii)表征属于$ \ mathbb {h_ {nc}} $的非锁友公式。第三,我们定义了非字词单元分辨率计算,$ ur_ {nc} $,并证明它检查多项式时间$ \ mathbb {h_ {nc}} $的可靠性。这一事实是我们的知识,使$ \ mathbb {h_ {nc}} $中的nc推理中的第一个特征多项式类。最后,我们证明了$ \ mathbb {h_ {nc}} $线性识别,也是严格的是法官和比喇叭类呈指数富裕。我们在NC自动推理中讨论了这一点,例如,可靠性解决,定理证明,逻辑编程等可以直接受益于$ \ mathbb {h_ {nc} $和$ ur_ {nc} $,它作为其被证明属性的副产物,$ \ mathbb { H_ {NC}} $ as作为分析喇叭函数和含义系统的新替代方案。
translated by 谷歌翻译
机器学习已随着医疗,法律和运输等各种安全领域的应用而无所不在。在这些领域中,机器学习提供的高风险决策需要研究人员设计可解释的模型,在该模型中,预测对人类是可以理解的。在可解释的机器学习中,基于规则的分类器在通过包含输入功能的一组规则来表示决策边界方面特别有效。基于规则的分类器的解释性通常与规则的规模有关,其中较小的规则被认为更容易解释。要学习这样的分类器,蛮力的直接方法是考虑一个优化问题,该问题试图学习具有接近最大准确性的最小分类规则。由于其组合性质,该优化问题在计算上是可悲的,因此,在大型数据集中,该问题无法扩展。为此,在本文中,我们研究了基于学习规则的分类器的准确性,可解释性和可伸缩性之间的三角关系。本文的贡献是一个可解释的学习框架IMLI,这是基于最大的满意度(MAXSAT),用于在命题逻辑中表达的合成分类规则。尽管在过去十年中MaxSat解决方案取得了进展,但基于最直接的MaxSat解决方案仍无法扩展。因此,我们通过整合迷你批次学习和迭代规则学习,将有效的增量学习技术纳入了MaxSAT公式中。在我们的实验中,IMLI在预测准确性,可解释性和可伸缩性之间取得了最佳平衡。作为一个应用程序,我们将IMLI部署在学习流行的可解释分类器(例如决策清单和决策集)中。
translated by 谷歌翻译
有限的线性时间逻辑($ \ mathsf {ltl} _f $)是一种强大的正式表示,用于建模时间序列。我们解决了学习Compact $ \ Mathsf {ltl} _f $ formul的问题,从标记的系统行为的痕迹。我们提出了一部小说神经网络运营商,并评估结果架构,神经$ \ mathsf {ltl} _f $。我们的方法包括专用复发过滤器,旨在满足$ \ Mathsf {ltl} _f $ temporal运算符,以学习痕迹的高度准确的分类器。然后,它离散地激活并提取由学习权重表示的真相表。此实话表将转换为符号形式并作为学习公式返回。随机生成$ \ Mathsf {LTL} _F $公式显示神经$ \ MATHSF {LTL} _F $尺寸,比现有方法更大,即使在存在噪声时也保持高精度。
translated by 谷歌翻译
大多数-AT是确定联合正常形式(CNF)中输入$ N $的最低价公式的问题至少为2 ^ {n-1} $令人满意的作业。在对概率规划和推论复杂性的各种AI社区中,广泛研究了多数饱和问题。虽然大多数饱满为期40多年来,但自然变体的复杂性保持开放:大多数 - $ k $ SAT,其中输入CNF公式仅限于最多$ k $的子句宽度。我们证明,每辆$ k $,大多数 - $ k $ sat是在p的。事实上,对于任何正整数$ k $和ratic $ \ rho \ in(0,1)$ in(0,1)$与有界分比者,我们给出了算法这可以确定给定的$ k $ -cnf是否至少有$ \ rho \ cdot 2 ^ n $令人满意的分配,在确定性线性时间(而先前的最着名的算法在指数时间中运行)。我们的算法对计算复杂性和推理的复杂性具有有趣的积极影响,显着降低了相关问题的已知复杂性,例如E-Maj-$ K $ Sat和Maj-Maj- $ K $ Sat。在我们的方法中,通过提取在$ k $ -cnf的相应设置系统中发现的向日葵,可以通过提取向日葵来解决阈值计数问题的有效方法。我们还表明,大多数 - $ k $ sat的易腐烂性有些脆弱。对于密切相关的gtmajority-sat问题(我们询问给定公式是否超过2 ^ {n-1} $满足分配),这已知是pp-cleanting的,我们表明gtmajority-$ k $ sat在p for $ k \ le 3 $,但为$ k \ geq 4 $完成np-cleante。这些结果是违反直觉的,因为这些问题的“自然”分类将是PP完整性,因为GTMAJority的复杂性存在显着差异 - $ k $ SAT和MOSTION- $ K $ SAT为所有$ k \ ge 4 $。
translated by 谷歌翻译
We present a general method for explaining individual predictions of classification models. The method is based on fundamental concepts from coalitional game theory and predictions are explained with contributions of individual feature values. We overcome the method's initial exponential time complexity with a sampling-based approximation. In the experimental part of the paper we use the developed method on models generated by several well-known machine learning algorithms on both synthetic and real-world data sets. The results demonstrate that the method is efficient and that the explanations are intuitive and useful.
translated by 谷歌翻译
Model counting is a fundamental problem which has been influential in many applications, from artificial intelligence to formal verification. Due to the intrinsic hardness of model counting, approximate techniques have been developed to solve real-world instances of model counting. This paper designs a new anytime approach called PartialKC for approximate model counting. The idea is a form of partial knowledge compilation to provide an unbiased estimate of the model count which can converge to the exact count. Our empirical analysis demonstrates that PartialKC achieves significant scalability and accuracy over prior state-of-the-art approximate counters, including satss and STS. Interestingly, the empirical results show that PartialKC reaches convergence for many instances and therefore provides exact model counting performance comparable to state-of-the-art exact counters.
translated by 谷歌翻译
命题模型计数或#SAT是计算布尔公式满足分配数量的问题。来自不同应用领域的许多问题,包括许多离散的概率推理问题,可以将#SAT求解器解决的模型计数问题转化为模型计数问题。但是,确切的#sat求解器通常无法扩展到工业规模实例。在本文中,我们提出了Neuro#,这是一种学习分支启发式方法,以提高特定问题家族中的实例的精确#sat求解器的性能。我们通过实验表明,我们的方法减少了类似分布的持有实例的步骤,并将其推广到同一问题家族的更大实例。它能够在具有截然不同的结构的许多不同问题家族上实现这些结果。除了步骤计数的改进外,Neuro#还可以在某些问题家族的较大实例上在较大的实例上实现壁式锁定速度的订单,尽管开头查询了模型。
translated by 谷歌翻译