抽象的论证为我们提供了逐步和粪便语义等方法,其中在其他参数潜在攻击后评估争论。其中一些方法可以将参数的内在优点作为输入,由此调制攻击之间的攻击效果。来自抽象的论证,这些方法只关注参数之间的关系而不是在争论本身的结构之间。在结构性论证中,通过从场所开始的推理规则来构建参数的方式,被考虑在考虑。在本文中,我们基于用于形成所述论点的处所和推理规则的优势,研究了分配其特征其内在力量的方法。我们首先定义一组原则,这些原则是强度分配方法可能满足的属性。然后,我们提出了两种这样的方法并分析了他们满足的原则。最后,我们提出了一种创建新颖强度分配方法的广义系统,并与该系统的属性与拟议原则交谈。
translated by 谷歌翻译
评估各种定量论证系统中论证强度的主题在抽象论证领域受到了越来越多的关注。但是,现有关于论证力量的逐渐语义仅考虑可接受性程度,这可能不足以评估实际情况下的论点。为了在现实世界应用中采用更丰富的参数强度表征,我们提供了一种新颖的定量方法,称为模糊论证系统的模糊标签。对于模糊标记,论证强度表示为三重,由可接受性,可拒绝性和不可证明性程度组成。它的规模更丰富,为论点强度提供了新的启示,并使我们对论点的地位有了更深入的了解。为了评估论点,我们提供了一种通过模糊标签来建立渐进语义的新方法,这对于评估过程至关重要。我们首先研究了模糊标签的合理性假设,这对于解释新语义的合理性很重要,考虑到新语义的合理性,同时考虑了可接受性,可拒绝性和不可证明性。然后,我们提出了一组模糊标签语义,并证明了一些重要的特性,这些属性对于比较,理解和应用语义至关重要。
translated by 谷歌翻译
参数系统基于这样的想法,即人们可以为命题构建参数。即,结构化的理由证明了对命题的信念。使用不良规则,在所有情况下都不必有效,因此,可以为命题及其否定构建一个论点。当论点支持冲突的命题时,必须击败其中一个论点,这提出了\ emph {(sub-)论点的问题可能会被击败}的问题?在法律论证中,元符号通过考虑冲突中涉及的每个论点的最后一个不辩护的规则来确定有效的论点。由于使用其最后一个规则评估参数更容易,因此\ emph {可以通过仅考虑所涉及的参数的最后一个不辩护的规则来解决冲突}?我们提出了一个新的参数系统,其中构建了\ emph {bustercutting-arguments},而不是在构建失败规则的情况下\ emph {bustercutting-arguments}。该系统允许我们(\ textit {i})仅使用不一致的参数的最后规则来解决冲突(反驳参数的概括),(\ textit {ii})来确定一组有效的(不败)参数在线性时间内使用基于JTMS的算法(\ textit {iii})建立与默认逻辑的关系,并且(\ textit {iv})证明了closure属性,例如\ emph {cumulativity}。我们还提出了一个参数系统的扩展,该系统可以启用\ emph {bia cases}。
translated by 谷歌翻译
本体论是在不同领域(包括法律领域)中知识表示的流行方法,描述逻辑(DL)通常用作其描述语言。为了根据基于DL不一致的法律本体论进行推理,目前的论文介绍了一个结构化的论证框架,尤其是根据ASPIC+在法律背景下推理,并将法律本体论转化为论证理论的公式和规则。从法律AI的角度来看,特别关注自动驾驶汽车的设计,我们表明,使用这种正式论证和基于DL的法律本体论的结合理论,可以根据不一致的本体论来获得可接受的断言,并根据本体的不一致以及传统的推理任务来获得DL本体也可以完成。此外,提出了对推理结果的解释的形式定义。
translated by 谷歌翻译
在逻辑中使用元规则,即其内容包含其他规则的规则,最近在非单调推理的情况下引起了人们的关注:第一个逻辑形式化和有效算法来计算此类理论的(元)扩展在Olivieri等人(2021年)中提出的这项工作通过考虑悬浮方面扩展了这种逻辑框架。由此产生的逻辑不仅能够建模政策,还可以解决许多法律系统中发生的知名方面。已经研究了我们刚才提到的应用区域中使用不良逻辑(DL)对元符号建模的使用。在这一研究中,上述研究并不关注元符号的一般计算特性。这项研究以两个主要贡献填补了这一空白。首先,我们介绍并形式化了两种具有元符号的可性义能逻辑的变体,以代表(1)具有能态模态的可d不平式元理论,(2)规则之间的两种不同类型的冲突:简单的冲突可不诚实的无义冲突和谨慎的冲突,谨慎的冲突和谨慎的冲突可义的义逻辑。其次,我们推进有效算法以计算两个变体的扩展。
translated by 谷歌翻译
一个自治系统由制造商构建,在患有规范和法律的社会中运营,并与最终用户进行互动。所有这些行动者都是受自治系统行为影响的利益相关者。我们解决这些利益攸关方的道德观点的挑战可以集成在自治系统的行为中。我们提出了一个道德推荐组件,我们称之为JIMINY,它使用规范系统和正式论证的技术,以达到利益攸关方之间的道德协议。 JIMINY代表了使用规范系统的每个利益相关者的道德观点,并有三种解决涉及利益攸关方意见的道德困境。首先,JIMINY认为利益相关者的论据是如何彼此相关的,这可能已经解决了困境。其次,JIMINY结合了利益攸关方的规范性系统,使利益攸关方的合并专业知识可能解决困境。第三,只有当这两种其他方法失败时,JIMINY使用上下文敏感的规则来决定哪个利益相关者优先考虑。在抽象层面,这三种方法的特点是添加参数,参数之间的攻击以及争论之间的攻击。我们展示了JIMINY不仅可以用于道德推理和协作决策,而且还用于提供关于道德行为的解释。
translated by 谷歌翻译
This volume contains revised versions of the papers selected for the third volume of the Online Handbook of Argumentation for AI (OHAAI). Previously, formal theories of argument and argument interaction have been proposed and studied, and this has led to the more recent study of computational models of argument. Argumentation, as a field within artificial intelligence (AI), is highly relevant for researchers interested in symbolic representations of knowledge and defeasible reasoning. The purpose of this handbook is to provide an open access and curated anthology for the argumentation research community. OHAAI is designed to serve as a research hub to keep track of the latest and upcoming PhD-driven research on the theory and application of argumentation in all areas related to AI.
translated by 谷歌翻译
最近,已经提出了基于力量的论证框架(Strafs)来模拟与参数相关的一些定量强度的情况。在这种情况下,应计的概念对应于集体攻击参数的一组参数。已经定义了一些语义,这些语义对集体击败目标的应计的存在敏感,而他们的个人要素不能。但是,到目前为止,仅研究了该框架和语义的表面。确实,现有文献集中于稳定语义对Strafs的适应。在本文中,我们推进研究并研究基于可接受性语义的适应。尤其是,我们表明,文献中定义的强大可接受性并不满足理想的财产,即粪便的基本引理。因此,我们提出了一个替代定义,该定义诱发了表现为预期的语义。然后,我们研究了这些新语义的计算问题,特别是我们表明推理的复杂性与几乎所有情况下标准论证框架相应决策问题的复杂性相似。然后,我们提出了用于计算(强和弱)扩展的伪树树限制的翻译。我们对我们的方法进行了实验评估的结论,该评估特别表明,它可以很好地扩展到解决一个扩展和枚举所有内容的问题。
translated by 谷歌翻译
In this paper we propose a general approach to define a many-valued preferential interpretation of gradual argumentation semantics. The approach allows for conditional reasoning over arguments and boolean combination of arguments, with respect to a class of gradual semantics, through the verification of graded (strict or defeasible) implications over a preferential interpretation. As a proof of concept, in the finitely-valued case, an Answer set Programming approach is proposed for conditional reasoning in a many-valued argumentation semantics of weighted argumentation graphs. The paper also develops and discusses a probabilistic semantics for gradual argumentation, which builds on the many-valued conditional semantics.
translated by 谷歌翻译
知识可定义是合理的真实信念(“JTB”)?我们认为,人们可以积极地或负面地回答,具体取决于一个人的真实信仰是否合理,我们称之为足够的原因。为了促进我们的论点,我们介绍了一个简单的基于理性的信念的命题逻辑,并提出了充分性的概念的公理表征。我们表明,此逻辑足以灵活,以适应各种有用的功能,包括由于原因的量化。我们使用我们的框架对比JTB的两位概念进行对比:一个内部家,另一家族。我们认为Gettier案例基本上挑战了内部概念,但不是外科医生。我们的方法致力于一系列关于知识的非押金主义,但它也让我们陷入困境,即知识是否涉及只有足够的原因,或者留下房间的原因不足。我们赞成后者的立场,这反映了一个更温和和更现实的无押金主义。
translated by 谷歌翻译
本文介绍了可不可避免的义逻辑的扩展,以解决务实的奇数问题。该逻辑应用三个一般原则:(1)必须在CTD推理的一般逻辑处理中解决务实的奇数问题;(2)必须采用非单调方法来处理CTD推理;(3)CTD推理的逻辑模型必须在计算上是可行的,并且如果可能的话,必须有效。提议的不理deontic逻辑的扩展详细阐述了政府机构和Rotolo(2019)提出的模型的初步版本。先前的解决方案是基于逻辑(建设性,自上而下)证明理论的特定特征。但是,该方法引入了一定程度的非确定性。为了避免问题,我们提供逻辑的自下而上表征。新的特征为有效实施逻辑提供了见解,并使我们能够建立问题的计算复杂性。
translated by 谷歌翻译
处理不确定,矛盾和模棱两可的信息仍然是人工智能(AI)的核心问题。结果,已经提出或改编了许多形式主义,以考虑非单调性,只有有限的作品和研究人员在其中进行了任何类型的比较。非单调形式主义是一种允许从前提中撤回以前的结论或主张,鉴于新的证据,在处理不确定性时提供了一些理想的灵活性。这篇研究文章着重于评估不辩论论证的推论能力,这是一种用于建模非单调推理的形式主义。除此之外,由于在AI社区中的广泛而公认的用途,选择并用作处理非主持推理的非单调性推理的模糊推理和专家系统。计算信任被选为此类模型应用的领域。信任是一种定义不明的结构,因此,适用于信任推理的推理可以看作是非单调的。推理模型旨在将信任标量分配给Wikipedia项目的编辑。特别是,尽管知识库或数据集使用了知识库或数据集,但基于参数的模型比在基线上建立的模型表现出更大的鲁棒性。这项研究通过剥削性论证及其与类似方法的比较来促进知识的体系。这种方法的实际用途以及一个模块化设计的实际使用,促进了类似的实验,并且在GitHub上公开提供了各自的实现[120,121]。这项工作增加了以前的作品,从经验上增强了不诚实论证的普遍性作为一种引人入胜的方法,以定量数据和不确定的知识来推理。
translated by 谷歌翻译
在过去几年的几十年中,致力于更新稳定模型语义(AKA答案设置程序)下更新逻辑计划的问题,或者换句话说,表现出培养结果的问题 - 当它描述更改时,遵守逻辑程序。而最先进的方法是在古典逻辑背景下的相同基本的直觉和愿望被指导,他们基于根本不同的原则和方法,这阻止了可以拥抱两个信念的统一框架规则更新。在本文中,我们将概述与答案设置的编程更新相关的一些主要方法和结果,同时指出本主题研究的一些主要挑战。
translated by 谷歌翻译
ALChour \“Ardenfors的AGM发布,Makinson继续代表与信仰变革有关的研究中的基石。Katsuno和Mendelzon(K&M)通过了AGM假设改变信仰基地,并在命题中的特征agm信仰基地修订有限签名的逻辑。我们概括了K&M在任意Tarskian逻辑中设置的(多个)基本修订版的方法,涵盖了具有经典模型 - 理论语义的所有逻辑,从而涵盖了知识表示和超越的各种逻辑。我们的通用配方适用于“基础”的各种概念(例如信仰集,任意或有限的句子或单句话)。核心结果是表示AGM基本修订运算符和某些“分配”之间双向对应的表示定理:函数映射信仰基础到总数 - 尚未传递 - “偏好”解释之间的关系。与此同时,我们为CAS提供了一个伴侣E当agm andodatience的AGM假设被遗弃时。我们还提供了所有逻辑的表征,我们的结果可以加强生产传递偏好关系的分配(如K&M的原始工作),根据语法依赖与独立性,引起了这种逻辑的两个表示定理。
translated by 谷歌翻译
本文介绍了概率推论(PD)作为概率结构性论证的一种方法。 PD框架由概率规则(P-Rules)组成。作为经典结构化论证框架的规则,P规则形成了扣除系统。此外,P规则还代表了定义关节概率分布的条件概率。使用PD框架,通过解决规则 - 稳定性的满意度来执行概率推理。同时,人们可以通过争论和攻击获得概率推理的论点阅读。在这项工作中,我们介绍了封闭世界假设(P-CWA)的概率版本,并证明我们的概率方法与P-CWA下经典论证的完整扩展和最大的熵推理相吻合。我们提出了几种方法来计算P规则的联合概率分布,以实现PD实用的证明理论。 PD提供了一个框架,可以用论证推理统一概率推理。这是概率结构化论证中的第一项工作,其中未假定联合分布形成外部来源。
translated by 谷歌翻译
Epistemic graphs generalize the epistemic approach to probabilistic argumentation and tackle the uncertainties in and between arguments. A framework was proposed to generate epistemic constraints from data using a two-way generalization method in the perspective of only considering the beliefs of participants without considering the nature of relations represented in an epistemic graph. The deficiency of original framework is that it is unable to learn rules using tighter constraints, and the learnt rules might be counterintuitive. Meanwhile, when dealing with more restricted values, the filtering computational complexity will increase sharply, and the time performance would become unreasonable. This paper introduces a filtering-based approach using a multiple-way generalization step to generate a set of rational rules based on both the beliefs of each agent on different arguments and the epistemic graph corresponding to the epistemic constraints. This approach is able to generated rational rules with multiple restricted values in higher efficiency. Meanwhile, we have proposed a standard to analyze the rationality of a dataset based on the postulates of deciding rational rules. We evaluate the filtering-based approach on two suitable data bases. The empirical results show that the filtering-based approach performs well with a better efficiency comparing to the original framework, and rules generated from the improved approach are ensured to be rational.
translated by 谷歌翻译
提出了一种称为论证的语义图表方法,该方法可以推导论证。首先,解决了标准命题和谓词逻辑的参数的推导。接下来,提出了一个具有不稳定规则的推理的扩展。最后,讨论了使用论证表的案件推理。
translated by 谷歌翻译
忘记 - 或可变消除 - 是一种允许从知识库中删除中间变量的操作,不再被视为相关。近年来,已经提出了许多忘记答案编程的不同方法,以特定运营商或这些运营商的类别,通常遵循不同的原则并遵守不同的性质。开发了每个这样的方法,以解决忘记某些特定的观点,旨在遵守在这种观点中认为所希望的特定属性,但缺少所有现有运营商和属性的全面和统一概述。在本文中,我们彻底检查了现有的属性和(类别的)运营商忘记了答案集编程,绘制了这些遗忘运营商的景观的完整图片,其中包括许多新颖的属性和运营商之间关系的结果,包括考虑因素在混凝土运营商上,计算遗忘和计算复杂性的结果。我们的目标是提供指导,帮助用户选择运营商最适合其应用要求。
translated by 谷歌翻译
We aim at improving reasoning on inconsistent and uncertain data. We focus on knowledge-graph data, extended with time intervals to specify their validity, as regularly found in historical sciences. We propose principles on semantics for efficient Maximum A-Posteriori inference on the new Temporal Markov Logic Networks (TMLN) which extend the Markov Logic Networks (MLN) by uncertain temporal facts and rules. We examine total and partial temporal (in)consistency relations between sets of temporal formulae. Then we propose a new Temporal Parametric Semantics, which may combine several sub-functions, allowing to use different assessment strategies. Finally, we expose the constraints that semantics must respect to satisfy our principles.
translated by 谷歌翻译
Two approaches to AI, neural networks and symbolic systems, have been proven very successful for an array of AI problems. However, neither has been able to achieve the general reasoning ability required for human-like intelligence. It has been argued that this is due to inherent weaknesses in each approach. Luckily, these weaknesses appear to be complementary, with symbolic systems being adept at the kinds of things neural networks have trouble with and vice-versa. The field of neural-symbolic AI attempts to exploit this asymmetry by combining neural networks and symbolic AI into integrated systems. Often this has been done by encoding symbolic knowledge into neural networks. Unfortunately, although many different methods for this have been proposed, there is no common definition of an encoding to compare them. We seek to rectify this problem by introducing a semantic framework for neural-symbolic AI, which is then shown to be general enough to account for a large family of neural-symbolic systems. We provide a number of examples and proofs of the application of the framework to the neural encoding of various forms of knowledge representation and neural network. These, at first sight disparate approaches, are all shown to fall within the framework's formal definition of what we call semantic encoding for neural-symbolic AI.
translated by 谷歌翻译