In this paper we propose a general approach to define a many-valued preferential interpretation of gradual argumentation semantics. The approach allows for conditional reasoning over arguments and boolean combination of arguments, with respect to a class of gradual semantics, through the verification of graded (strict or defeasible) implications over a preferential interpretation. As a proof of concept, in the finitely-valued case, an Answer set Programming approach is proposed for conditional reasoning in a many-valued argumentation semantics of weighted argumentation graphs. The paper also develops and discusses a probabilistic semantics for gradual argumentation, which builds on the many-valued conditional semantics.
translated by 谷歌翻译
在本文中,我们建立了模糊和优惠语义之间的联系,用于描述逻辑和自组织地图,这些地图已被提出为可能的候选人来解释类别概括的心理机制。特别是,我们表明,在训练之后的自组织地图的输入/输出行为可以通过模糊描述逻辑解释以及基于概念 - 方面的多次方法语义来描述逻辑解释以及考虑偏好的优先解释关于不同的概念,最近提出了排名和加权污染描述逻辑。可以通过模型检查模糊或优先解释来证明网络的属性。从模糊解释开始,我们还为此神经网络模型提供了概率账户。
translated by 谷歌翻译
处理上下文依赖知识导致了上下文概念的不同形式化。其中包括上下文化的知识存储库(CKR)框架,它扎根于描述逻辑,而是强烈地与逻辑程序的关键联系,特别是逻辑程序和应答设置编程(ASP)。 CKR框架迎合了在上下文中具有缺陷的公理和例外的推理,这在覆盖范围(特异性)层级中的上下文中扩展到知识继承。然而,该方法仅支持这种单一类型的上下文关系,并且由于例外情况下的模型偏好的非普通问题而仅适用于受限制的层次结构。在本文中,我们克服了这些限制,并呈现了CKR层次的概括到多个上下文关系,以及他们对不可行的公理和偏好的解释。为了支持推理,我们使用带有代数措施的ASP,这是最近的ASP与加权公式的延伸,允许一个允许根据命题原子的真实值将数量与解释联系起来。值得注意的是,我们表明,对于具有多个上下文关系的CKR层次结构的相关片段,可以使用流行的ASPrin框架实现查询应答。代数措施方法更强大,并实现了例如。通过CKRS的认知查询推理,它打开了在其他应用中使用定量ASP扩展的有趣的视角。
translated by 谷歌翻译
评估各种定量论证系统中论证强度的主题在抽象论证领域受到了越来越多的关注。但是,现有关于论证力量的逐渐语义仅考虑可接受性程度,这可能不足以评估实际情况下的论点。为了在现实世界应用中采用更丰富的参数强度表征,我们提供了一种新颖的定量方法,称为模糊论证系统的模糊标签。对于模糊标记,论证强度表示为三重,由可接受性,可拒绝性和不可证明性程度组成。它的规模更丰富,为论点强度提供了新的启示,并使我们对论点的地位有了更深入的了解。为了评估论点,我们提供了一种通过模糊标签来建立渐进语义的新方法,这对于评估过程至关重要。我们首先研究了模糊标签的合理性假设,这对于解释新语义的合理性很重要,考虑到新语义的合理性,同时考虑了可接受性,可拒绝性和不可证明性。然后,我们提出了一组模糊标签语义,并证明了一些重要的特性,这些属性对于比较,理解和应用语义至关重要。
translated by 谷歌翻译
在过去几年的几十年中,致力于更新稳定模型语义(AKA答案设置程序)下更新逻辑计划的问题,或者换句话说,表现出培养结果的问题 - 当它描述更改时,遵守逻辑程序。而最先进的方法是在古典逻辑背景下的相同基本的直觉和愿望被指导,他们基于根本不同的原则和方法,这阻止了可以拥抱两个信念的统一框架规则更新。在本文中,我们将概述与答案设置的编程更新相关的一些主要方法和结果,同时指出本主题研究的一些主要挑战。
translated by 谷歌翻译
Two approaches to AI, neural networks and symbolic systems, have been proven very successful for an array of AI problems. However, neither has been able to achieve the general reasoning ability required for human-like intelligence. It has been argued that this is due to inherent weaknesses in each approach. Luckily, these weaknesses appear to be complementary, with symbolic systems being adept at the kinds of things neural networks have trouble with and vice-versa. The field of neural-symbolic AI attempts to exploit this asymmetry by combining neural networks and symbolic AI into integrated systems. Often this has been done by encoding symbolic knowledge into neural networks. Unfortunately, although many different methods for this have been proposed, there is no common definition of an encoding to compare them. We seek to rectify this problem by introducing a semantic framework for neural-symbolic AI, which is then shown to be general enough to account for a large family of neural-symbolic systems. We provide a number of examples and proofs of the application of the framework to the neural encoding of various forms of knowledge representation and neural network. These, at first sight disparate approaches, are all shown to fall within the framework's formal definition of what we call semantic encoding for neural-symbolic AI.
translated by 谷歌翻译
本文介绍了概率推论(PD)作为概率结构性论证的一种方法。 PD框架由概率规则(P-Rules)组成。作为经典结构化论证框架的规则,P规则形成了扣除系统。此外,P规则还代表了定义关节概率分布的条件概率。使用PD框架,通过解决规则 - 稳定性的满意度来执行概率推理。同时,人们可以通过争论和攻击获得概率推理的论点阅读。在这项工作中,我们介绍了封闭世界假设(P-CWA)的概率版本,并证明我们的概率方法与P-CWA下经典论证的完整扩展和最大的熵推理相吻合。我们提出了几种方法来计算P规则的联合概率分布,以实现PD实用的证明理论。 PD提供了一个框架,可以用论证推理统一概率推理。这是概率结构化论证中的第一项工作,其中未假定联合分布形成外部来源。
translated by 谷歌翻译
最近,已经提出了基于力量的论证框架(Strafs)来模拟与参数相关的一些定量强度的情况。在这种情况下,应计的概念对应于集体攻击参数的一组参数。已经定义了一些语义,这些语义对集体击败目标的应计的存在敏感,而他们的个人要素不能。但是,到目前为止,仅研究了该框架和语义的表面。确实,现有文献集中于稳定语义对Strafs的适应。在本文中,我们推进研究并研究基于可接受性语义的适应。尤其是,我们表明,文献中定义的强大可接受性并不满足理想的财产,即粪便的基本引理。因此,我们提出了一个替代定义,该定义诱发了表现为预期的语义。然后,我们研究了这些新语义的计算问题,特别是我们表明推理的复杂性与几乎所有情况下标准论证框架相应决策问题的复杂性相似。然后,我们提出了用于计算(强和弱)扩展的伪树树限制的翻译。我们对我们的方法进行了实验评估的结论,该评估特别表明,它可以很好地扩展到解决一个扩展和枚举所有内容的问题。
translated by 谷歌翻译
对国际气候变化小组(IPCC)的第六次评估指出,“过去十年(2010-2019)的累积净二氧化碳排放量与剩下的11个碳预算可能会限制为1.5C(中等信心)大约相同)。”这样的报告直接培养了公众的话语,但是诸如信念和信心程度之类的细微差别常常失去。在本文中,我们提出了一个正式的帐户,以允许在抽象论证设置中使用这种信念和相关的信心来标记论证。与概率论证中的其他建议不同,我们关注对Sato分布语义的选择构建的概率推断的任务,Sato的分布语义已被证明涵盖了包括贝叶斯网络的语义在内的各种情况。从有关此类语义的大量文献中借用,我们研究了如何在考虑不确定概率的情况下在实践中处理此类任务,并与现有的概率论点的现有建议讨论联系。
translated by 谷歌翻译
一个自治系统由制造商构建,在患有规范和法律的社会中运营,并与最终用户进行互动。所有这些行动者都是受自治系统行为影响的利益相关者。我们解决这些利益攸关方的道德观点的挑战可以集成在自治系统的行为中。我们提出了一个道德推荐组件,我们称之为JIMINY,它使用规范系统和正式论证的技术,以达到利益攸关方之间的道德协议。 JIMINY代表了使用规范系统的每个利益相关者的道德观点,并有三种解决涉及利益攸关方意见的道德困境。首先,JIMINY认为利益相关者的论据是如何彼此相关的,这可能已经解决了困境。其次,JIMINY结合了利益攸关方的规范性系统,使利益攸关方的合并专业知识可能解决困境。第三,只有当这两种其他方法失败时,JIMINY使用上下文敏感的规则来决定哪个利益相关者优先考虑。在抽象层面,这三种方法的特点是添加参数,参数之间的攻击以及争论之间的攻击。我们展示了JIMINY不仅可以用于道德推理和协作决策,而且还用于提供关于道德行为的解释。
translated by 谷歌翻译
我们概述了在其知识表示和声明问题解决的应用中的视角下的时间逻辑编程。这些程序是将通常规则与时间模态运算符组合的结果,如线性时间时间逻辑(LTL)。我们专注于最近的非单调形式主义的结果​​称为时间平衡逻辑(电话),该逻辑(电话)为LTL的全语法定义,但是基于平衡逻辑执行模型选择标准,答案集编程的众所周知的逻辑表征(ASP )。我们获得了稳定模型语义的适当延伸,以进行任意时间公式的一般情况。我们记得电话和单调基础的基本定义,这里的时间逻辑 - 和那里(THT),并研究无限和有限迹线之间的差异。我们还提供其他有用的结果,例如将转换成其他形式主义,如量化的平衡逻辑或二阶LTL,以及用于基于自动机计算的时间稳定模型的一些技术。在第二部分中,我们专注于实际方面,定义称为较近ASP的时间逻辑程序的句法片段,并解释如何在求解器Telingo的构建中被利用。
translated by 谷歌翻译
人工智能代理必须从周围环境中学到学习,并了解所学习的知识,以便做出决定。虽然从数据的最先进的学习通常使用子符号分布式表示,但是使用用于知识表示的一阶逻辑语言,推理通常在更高的抽象级别中有用。结果,将符号AI和神经计算结合成神经符号系统的尝试已经增加。在本文中,我们呈现了逻辑张量网络(LTN),一种神经组织形式和计算模型,通过引入许多值的端到端可分别的一阶逻辑来支持学习和推理,称为真实逻辑作为表示语言深入学习。我们表明LTN为规范提供了统一的语言,以及多个AI任务的计算,如数据聚类,多标签分类,关系学习,查询应答,半监督学习,回归和嵌入学习。我们使用TensorFlow2的许多简单的解释例实施和说明上述每个任务。关键词:神经组音恐怖症,深度学习和推理,许多值逻辑。
translated by 谷歌翻译
知识表示中的一个突出问题是如何应对域名知识的本体的隐性后果来回回答查询。虽然这个问题在描述逻辑本体的领域中已被广泛研究,但在模糊或不精确的知识的背景下,令人惊讶地忽略了忽视,特别是从数学模糊逻辑的角度来看。在本文中,我们研究了应答联合查询和阈值查询的问题。模糊DL-Lite中的本体。具体而言,我们通过重写方法展示阈值查询应答W.r.t.一致的本体中仍保持在数据复杂性的$ AC_0 $中,但该联合查询应答高度依赖于所选三角标准,这对底层语义产生了影响。对于IDEMPodent G \“Odel T-Norm,我们提供了一种基于古典案例的减少的有效方法。本文在理论和实践中正在考虑和逻辑编程(TPLP)的实践。
translated by 谷歌翻译
参数系统基于这样的想法,即人们可以为命题构建参数。即,结构化的理由证明了对命题的信念。使用不良规则,在所有情况下都不必有效,因此,可以为命题及其否定构建一个论点。当论点支持冲突的命题时,必须击败其中一个论点,这提出了\ emph {(sub-)论点的问题可能会被击败}的问题?在法律论证中,元符号通过考虑冲突中涉及的每个论点的最后一个不辩护的规则来确定有效的论点。由于使用其最后一个规则评估参数更容易,因此\ emph {可以通过仅考虑所涉及的参数的最后一个不辩护的规则来解决冲突}?我们提出了一个新的参数系统,其中构建了\ emph {bustercutting-arguments},而不是在构建失败规则的情况下\ emph {bustercutting-arguments}。该系统允许我们(\ textit {i})仅使用不一致的参数的最后规则来解决冲突(反驳参数的概括),(\ textit {ii})来确定一组有效的(不败)参数在线性时间内使用基于JTMS的算法(\ textit {iii})建立与默认逻辑的关系,并且(\ textit {iv})证明了closure属性,例如\ emph {cumulativity}。我们还提出了一个参数系统的扩展,该系统可以启用\ emph {bia cases}。
translated by 谷歌翻译
我们提出了一种使用绑架过程,在给定的答案集编程(ASP)规则集(ASP)规则集方面生成可能的查询证明,该过程仅根据输入规则自动构建了陈腐的空间。给定一组(可能是空的)用户提供的事实,我们的方法会渗透到需要查询的任何其他事实,然后输出这些额外的事实,而无需用户需要明确指定所有占有无误的空间。我们还提出了一种方法,以生成与查询的理由图相对应的一组定向边缘。此外,通过不同形式的隐式术语替换,我们的方法可以考虑用户提供的事实并适当修改绑架解决方案。过去的绑架工作主要基于目标定向方法。但是,这些方法可能导致并非真正声明的求解器。关于实现绑架的绑架者,例如Clingo ASP求解器,做出的工作要少得多。我们描述了可以直接在Clingo中运行的新型ASP程序,以产生绑架解决方案和定向边缘集,而无需修改基础求解引擎。
translated by 谷歌翻译
形状约束语言(SHACL)是通过验证图表上的某些形状来验证RDF数据的最新W3C推荐语言。先前的工作主要集中在验证问题上,并且仅针对SHACL的简化版本研究了对设计和优化目的至关重要的可满足性和遏制的标准决策问题。此外,SHACL规范不能定义递归定义的约束的语义,这导致文献中提出了几种替代性递归语义。尚未研究这些不同语义与重要决策问题之间的相互作用。在本文中,我们通过向新的一阶语言(称为SCL)的翻译提供了对SHACL的不同特征的全面研究,该语言精确地捕获了SHACL的语义。我们还提出了MSCL,这是SCL的二阶扩展,它使我们能够在单个形式的逻辑框架中定义SHACL的主要递归语义。在这种语言中,我们还提供了对过滤器约束的有效处理,这些滤镜经常在相关文献中被忽略。使用此逻辑,我们为不同的SHACL片段的可满足性和遏制决策问题提供了(联合)可决定性和复杂性结果的详细图。值得注意的是,我们证明这两个问题对于完整的语言都是不可避免的,但是即使面对递归,我们也提供了有趣的功能的可决定性组合。
translated by 谷歌翻译
抽象的论证为我们提供了逐步和粪便语义等方法,其中在其他参数潜在攻击后评估争论。其中一些方法可以将参数的内在优点作为输入,由此调制攻击之间的攻击效果。来自抽象的论证,这些方法只关注参数之间的关系而不是在争论本身的结构之间。在结构性论证中,通过从场所开始的推理规则来构建参数的方式,被考虑在考虑。在本文中,我们基于用于形成所述论点的处所和推理规则的优势,研究了分配其特征其内在力量的方法。我们首先定义一组原则,这些原则是强度分配方法可能满足的属性。然后,我们提出了两种这样的方法并分析了他们满足的原则。最后,我们提出了一种创建新颖强度分配方法的广义系统,并与该系统的属性与拟议原则交谈。
translated by 谷歌翻译
在科学和工程领域中,搜索优化问题是很多。长期以来,人工智能为搜索算法和旨在解决和建模搜索优化问题的宣言编程语言的发展做出了贡献。自动推理和知识表示是AI的子场,这些子场尤其归属这些发展。许多流行的自动推理范式为用户提供支持优化语句的语言。召回整数线性编程,MAXSAT,优化满意度模型理论和(约束)答案集编程。这些范式在其语言上以它们在计算解决方案上表达质量条件的方式差异很大。在这里,我们提出了一个所谓的扩展权重系统的统一框架,以消除范式之间的句法区别。它们使我们能够看到不同自动推理语言提供的优化语句之间的基本相似性和差异。我们还研究了提议的系统的形式属性,这些系统立即转化为可以在我们的框架内捕获的范式的形式属性。在逻辑编程(TPLP)的理论和实践中考虑的考虑因素。
translated by 谷歌翻译
本体论是在不同领域(包括法律领域)中知识表示的流行方法,描述逻辑(DL)通常用作其描述语言。为了根据基于DL不一致的法律本体论进行推理,目前的论文介绍了一个结构化的论证框架,尤其是根据ASPIC+在法律背景下推理,并将法律本体论转化为论证理论的公式和规则。从法律AI的角度来看,特别关注自动驾驶汽车的设计,我们表明,使用这种正式论证和基于DL的法律本体论的结合理论,可以根据不一致的本体论来获得可接受的断言,并根据本体的不一致以及传统的推理任务来获得DL本体也可以完成。此外,提出了对推理结果的解释的形式定义。
translated by 谷歌翻译
In this paper, we provide a theoretical framework to analyze an agent who misinterprets or misperceives the true decision problem she faces. Within this framework, we show that a wide range of behavior observed in experimental settings manifest as failures to perceive implications, in other words, to properly account for the logical relationships between various payoff relevant contingencies. We present behavioral characterizations corresponding to several benchmarks of logical sophistication and show how it is possible to identify which implications the agent fails to perceive. Thus, our framework delivers both a methodology for assessing an agent's level of contingent thinking and a strategy for identifying her beliefs in the absence full rationality.
translated by 谷歌翻译