对国际气候变化小组(IPCC)的第六次评估指出,“过去十年(2010-2019)的累积净二氧化碳排放量与剩下的11个碳预算可能会限制为1.5C(中等信心)大约相同)。”这样的报告直接培养了公众的话语,但是诸如信念和信心程度之类的细微差别常常失去。在本文中,我们提出了一个正式的帐户,以允许在抽象论证设置中使用这种信念和相关的信心来标记论证。与概率论证中的其他建议不同,我们关注对Sato分布语义的选择构建的概率推断的任务,Sato的分布语义已被证明涵盖了包括贝叶斯网络的语义在内的各种情况。从有关此类语义的大量文献中借用,我们研究了如何在考虑不确定概率的情况下在实践中处理此类任务,并与现有的概率论点的现有建议讨论联系。
translated by 谷歌翻译
本文介绍了概率推论(PD)作为概率结构性论证的一种方法。 PD框架由概率规则(P-Rules)组成。作为经典结构化论证框架的规则,P规则形成了扣除系统。此外,P规则还代表了定义关节概率分布的条件概率。使用PD框架,通过解决规则 - 稳定性的满意度来执行概率推理。同时,人们可以通过争论和攻击获得概率推理的论点阅读。在这项工作中,我们介绍了封闭世界假设(P-CWA)的概率版本,并证明我们的概率方法与P-CWA下经典论证的完整扩展和最大的熵推理相吻合。我们提出了几种方法来计算P规则的联合概率分布,以实现PD实用的证明理论。 PD提供了一个框架,可以用论证推理统一概率推理。这是概率结构化论证中的第一项工作,其中未假定联合分布形成外部来源。
translated by 谷歌翻译
In this paper we propose a general approach to define a many-valued preferential interpretation of gradual argumentation semantics. The approach allows for conditional reasoning over arguments and boolean combination of arguments, with respect to a class of gradual semantics, through the verification of graded (strict or defeasible) implications over a preferential interpretation. As a proof of concept, in the finitely-valued case, an Answer set Programming approach is proposed for conditional reasoning in a many-valued argumentation semantics of weighted argumentation graphs. The paper also develops and discusses a probabilistic semantics for gradual argumentation, which builds on the many-valued conditional semantics.
translated by 谷歌翻译
This volume contains revised versions of the papers selected for the third volume of the Online Handbook of Argumentation for AI (OHAAI). Previously, formal theories of argument and argument interaction have been proposed and studied, and this has led to the more recent study of computational models of argument. Argumentation, as a field within artificial intelligence (AI), is highly relevant for researchers interested in symbolic representations of knowledge and defeasible reasoning. The purpose of this handbook is to provide an open access and curated anthology for the argumentation research community. OHAAI is designed to serve as a research hub to keep track of the latest and upcoming PhD-driven research on the theory and application of argumentation in all areas related to AI.
translated by 谷歌翻译
The notion of uncertainty is of major importance in machine learning and constitutes a key element of machine learning methodology. In line with the statistical tradition, uncertainty has long been perceived as almost synonymous with standard probability and probabilistic predictions. Yet, due to the steadily increasing relevance of machine learning for practical applications and related issues such as safety requirements, new problems and challenges have recently been identified by machine learning scholars, and these problems may call for new methodological developments. In particular, this includes the importance of distinguishing between (at least) two different types of uncertainty, often referred to as aleatoric and epistemic. In this paper, we provide an introduction to the topic of uncertainty in machine learning as well as an overview of attempts so far at handling uncertainty in general and formalizing this distinction in particular.
translated by 谷歌翻译
最近,已经提出了基于力量的论证框架(Strafs)来模拟与参数相关的一些定量强度的情况。在这种情况下,应计的概念对应于集体攻击参数的一组参数。已经定义了一些语义,这些语义对集体击败目标的应计的存在敏感,而他们的个人要素不能。但是,到目前为止,仅研究了该框架和语义的表面。确实,现有文献集中于稳定语义对Strafs的适应。在本文中,我们推进研究并研究基于可接受性语义的适应。尤其是,我们表明,文献中定义的强大可接受性并不满足理想的财产,即粪便的基本引理。因此,我们提出了一个替代定义,该定义诱发了表现为预期的语义。然后,我们研究了这些新语义的计算问题,特别是我们表明推理的复杂性与几乎所有情况下标准论证框架相应决策问题的复杂性相似。然后,我们提出了用于计算(强和弱)扩展的伪树树限制的翻译。我们对我们的方法进行了实验评估的结论,该评估特别表明,它可以很好地扩展到解决一个扩展和枚举所有内容的问题。
translated by 谷歌翻译
对指示性有条件的研究通常旨在确定其真实条件,或者解释我们应该如何与他们进行推理以及何时可以主张它们。本文通过阐明指示性有条件的三价,真实功能的真理条件来整合这些语义和认识论项目。基于此框架,我们提供了有条件概率的非经典说明,以及有条件推理的两个逻辑:(i)从某些前提中推断的逻辑C,可以推断推断推理;(ii)从不确定前提中推断的逻辑U,概括了不诚实的推理。两种逻辑在其领域都非常有吸引力。它们为有条件推理提供了一个统一的框架,概括了现有理论(例如,亚当斯的“合理推论”逻辑),并对有关Modus Ponens,Import-Export和其他条件逻辑原理的争议进行了深入的分析。
translated by 谷歌翻译
尽管大量的工作已经审查了条件句子的含义,但对其务实使用和解释的正式模型的关注要少得多。在这里,我们采用一种概率方法来实用务实的推理,以灵活地整合有关富有结构化世界国家的梯度信念。我们基于关于说话者的话语生产方案的假设,对听众对他们先前关于世界因果结构的信念以及随之而来的前身的共同概率进行了建模。我们表明,当提供自然上下文假设时,我们的模型统一地解释了文献中的许多推论,包括认识论推断,条件完美以及对条件和条件的依赖性。我们认为,这种方法还有助于解释杜文(Douven,2012)引入的三个难题有关有条件的更新:取决于话语背景,听众对先决条件的信念可能会增加,减少或保持不变。
translated by 谷歌翻译
评估各种定量论证系统中论证强度的主题在抽象论证领域受到了越来越多的关注。但是,现有关于论证力量的逐渐语义仅考虑可接受性程度,这可能不足以评估实际情况下的论点。为了在现实世界应用中采用更丰富的参数强度表征,我们提供了一种新颖的定量方法,称为模糊论证系统的模糊标签。对于模糊标记,论证强度表示为三重,由可接受性,可拒绝性和不可证明性程度组成。它的规模更丰富,为论点强度提供了新的启示,并使我们对论点的地位有了更深入的了解。为了评估论点,我们提供了一种通过模糊标签来建立渐进语义的新方法,这对于评估过程至关重要。我们首先研究了模糊标签的合理性假设,这对于解释新语义的合理性很重要,考虑到新语义的合理性,同时考虑了可接受性,可拒绝性和不可证明性。然后,我们提出了一组模糊标签语义,并证明了一些重要的特性,这些属性对于比较,理解和应用语义至关重要。
translated by 谷歌翻译
本文迈出了从实验中学习的逻辑的第一步。为此,我们调查了建模因果和(定性)认知推理的相互作用的正式框架。对于我们的方法至关重要是一种干预概念的想法,可以用作(真实或假设的)实验的正式表达。在第一步中,我们将众所周知的因果模型与代理人的认知状态的简单HITIKKA样式表示。在生成的设置中,不仅可以对关于变量值的知识以及干预措施如何影响它们,而且可以对其进行交谈,而且还可以谈论知识更新。由此产生的逻辑可以模拟关于思想实验的推理。但是,它无法解释从实验中学习,这显然是由它验证干预措施没有学习原则的事实。因此,在第二步中,我们实现更复杂的知识概念,该知识概念允许代理在进行实验时观察(测量)某些变量。该扩展系统确实允许从实验中学习。对于所有提出的逻辑系统,我们提供了一种声音和完整的公理化。
translated by 谷歌翻译
提出了具有依赖常识的公共公告逻辑的浅语义嵌入。此嵌入使得该逻辑的首次自动化为经典高阶逻辑的现成定理传输。据证明(i)可以通过这种方式自动化的荟萃理论研究,(ii)所需的目标逻辑(公共公告逻辑)的非琐碎推理方式是如何实现的。为了获得令人信服的编码和智者自动化,可以实现。呈现的语义嵌入的关键是评估域在嵌入目标逻辑的组成部分的编码中被明确建模并视为附加参数;在以前的相关工程中,例如在嵌入正常模态逻辑中,在元逻辑和目标逻辑之间隐式共享评估域。本文所呈现的工作构成了对多元日志知识工程方法的重要补充,这使得能够通过逻辑及其组合进行实验,以及一般和域知识,以及混凝土用例 - 同时。
translated by 谷歌翻译
对不确定性的深入了解是在不确定性下做出有效决策的第一步。深度/机器学习(ML/DL)已被大大利用,以解决处理高维数据所涉及的复杂问题。但是,在ML/DL中,推理和量化不同类型的不确定性的探索少于其他人工智能(AI)领域。特别是,自1960年代以来,在KRR上已经研究了信仰/证据理论,以推理并衡量不确定性以提高决策效率。我们发现,只有少数研究利用了ML/DL中的信念/证据理论中的成熟不确定性研究来解决不同类型的不确定性下的复杂问题。在本调查论文中,我们讨论了一些流行的信念理论及其核心思想,这些理论涉及不确定性原因和类型,并量化它们,并讨论其在ML/DL中的适用性。此外,我们讨论了三种主要方法,这些方法在深度神经网络(DNN)中利用信仰理论,包括证据DNN,模糊DNN和粗糙的DNN,就其不确定性原因,类型和量化方法以及其在多元化问题中的适用性而言。域。根据我们的深入调查,我们讨论了见解,经验教训,对当前最新桥接信念理论和ML/DL的局限性,最后是未来的研究方向。
translated by 谷歌翻译
为什么普通语言模糊不清?我们认为,在合作扬声器没有完全了解世界的情况下,使用模糊表达可以在真实性(Gricean质量)和信息性之间提供最佳权衡(Gricean数量)。专注于诸如“周围”的近似的表达,这表明他们允许扬声器传达间接概率信息,这种信息可以使听众更准确地表示发言者可用的信息的信息。更精确的表达将是(之间的间隔“)。也就是说,模糊的句子可以比他们精确的对应物更有信息。我们对“周围”解释的概率处理,并提供了解释和使用“围绕” - 理性语音法(RSA)框架的典范。在我们的账户中,扬声器分配事项的形状不是由RSA框架标准用于模糊谓词的词汇不确定性模型的方式预测。我们利用我们的方法绘制关于模糊表达的语义灵活性的进一步教训及其对更精确的含义的不可缩短。
translated by 谷歌翻译
We introduce a general theory of epistemic random fuzzy sets for reasoning with fuzzy or crisp evidence. This framework generalizes both the Dempster-Shafer theory of belief functions, and possibility theory. Independent epistemic random fuzzy sets are combined by the generalized product-intersection rule, which extends both Dempster's rule for combining belief functions, and the product conjunctive combination of possibility distributions. We introduce Gaussian random fuzzy numbers and their multi-dimensional extensions, Gaussian random fuzzy vectors, as practical models for quantifying uncertainty about scalar or vector quantities. Closed-form expressions for the combination, projection and vacuous extension of Gaussian random fuzzy numbers and vectors are derived.
translated by 谷歌翻译
处理不确定,矛盾和模棱两可的信息仍然是人工智能(AI)的核心问题。结果,已经提出或改编了许多形式主义,以考虑非单调性,只有有限的作品和研究人员在其中进行了任何类型的比较。非单调形式主义是一种允许从前提中撤回以前的结论或主张,鉴于新的证据,在处理不确定性时提供了一些理想的灵活性。这篇研究文章着重于评估不辩论论证的推论能力,这是一种用于建模非单调推理的形式主义。除此之外,由于在AI社区中的广泛而公认的用途,选择并用作处理非主持推理的非单调性推理的模糊推理和专家系统。计算信任被选为此类模型应用的领域。信任是一种定义不明的结构,因此,适用于信任推理的推理可以看作是非单调的。推理模型旨在将信任标量分配给Wikipedia项目的编辑。特别是,尽管知识库或数据集使用了知识库或数据集,但基于参数的模型比在基线上建立的模型表现出更大的鲁棒性。这项研究通过剥削性论证及其与类似方法的比较来促进知识的体系。这种方法的实际用途以及一个模块化设计的实际使用,促进了类似的实验,并且在GitHub上公开提供了各自的实现[120,121]。这项工作增加了以前的作品,从经验上增强了不诚实论证的普遍性作为一种引人入胜的方法,以定量数据和不确定的知识来推理。
translated by 谷歌翻译
在这项调查中,我们回顾了动态认知逻辑,具有量化信息变化的方式。在此类逻辑中,我们提出了完整的公理化,重点关注涉及知识与此类量化器之间相互作用的公理,我们报告了它们的相对表现,可定义性以及模型检查和满意度的复杂性以及应用程序的复杂性。我们专注于开放问题和新的研究方向。
translated by 谷歌翻译
一个自治系统由制造商构建,在患有规范和法律的社会中运营,并与最终用户进行互动。所有这些行动者都是受自治系统行为影响的利益相关者。我们解决这些利益攸关方的道德观点的挑战可以集成在自治系统的行为中。我们提出了一个道德推荐组件,我们称之为JIMINY,它使用规范系统和正式论证的技术,以达到利益攸关方之间的道德协议。 JIMINY代表了使用规范系统的每个利益相关者的道德观点,并有三种解决涉及利益攸关方意见的道德困境。首先,JIMINY认为利益相关者的论据是如何彼此相关的,这可能已经解决了困境。其次,JIMINY结合了利益攸关方的规范性系统,使利益攸关方的合并专业知识可能解决困境。第三,只有当这两种其他方法失败时,JIMINY使用上下文敏感的规则来决定哪个利益相关者优先考虑。在抽象层面,这三种方法的特点是添加参数,参数之间的攻击以及争论之间的攻击。我们展示了JIMINY不仅可以用于道德推理和协作决策,而且还用于提供关于道德行为的解释。
translated by 谷歌翻译
知识可定义是合理的真实信念(“JTB”)?我们认为,人们可以积极地或负面地回答,具体取决于一个人的真实信仰是否合理,我们称之为足够的原因。为了促进我们的论点,我们介绍了一个简单的基于理性的信念的命题逻辑,并提出了充分性的概念的公理表征。我们表明,此逻辑足以灵活,以适应各种有用的功能,包括由于原因的量化。我们使用我们的框架对比JTB的两位概念进行对比:一个内部家,另一家族。我们认为Gettier案例基本上挑战了内部概念,但不是外科医生。我们的方法致力于一系列关于知识的非押金主义,但它也让我们陷入困境,即知识是否涉及只有足够的原因,或者留下房间的原因不足。我们赞成后者的立场,这反映了一个更温和和更现实的无押金主义。
translated by 谷歌翻译
象征性的AI社区越来越多地试图在神经符号结构中接受机器学习,但由于文化障碍,仍在挣扎。为了打破障碍,这份相当有思想的个人备忘录试图解释和纠正统计,机器学习和深入学习的惯例,从局外人的角度进行深入学习。它提供了一个分步协议,用于设计一个机器学习系统,该系统满足符号AI社区认真对待所必需的最低理论保证,即,它讨论“在哪些条件下,我们可以停止担心和接受统计机器学习。 “一些亮点:大多数教科书都是为计划专门研究STAT/ML/DL的人编写的,应该接受术语。该备忘录适用于经验丰富的象征研究人员,他们听到了很多嗡嗡声,但仍然不确定和持怀疑态度。有关STAT/ML/DL的信息目前太分散或嘈杂而无法投资。此备忘录优先考虑紧凑性,并特别注意与象征性范式相互共鸣的概念。我希望这份备忘录能节省时间。它优先考虑一般数学建模,并且不讨论任何特定的函数近似器,例如神经网络(NNS),SVMS,决策树等。它可以对校正开放。将此备忘录视为与博客文章相似的内容,采用有关Arxiv的论文的形式。
translated by 谷歌翻译
保证案件旨在为其最高主张的真理提供合理的信心,这通常涉及安全或保障。那么一个自然的问题是,案件提供了“多少”信心?我们认为,置信度不能简化为单个属性或测量。取而代之的是,我们建议它应该基于以三种不同观点的属性为基础:正面,消极和残留疑问。积极的观点考虑了该案件的证据和总体论点结合起来的程度,以表明其主张的信念是正当的。我们为理由设置了一个高标准,要求它是不可行的。对此的主要积极度量是健全性,它将论点解释为逻辑证明。对证据的信心可以概率地表达,我们使用确认措施来确保证据的“权重”跨越了一定的阈值。此外,可以通过使用概率逻辑的参数步骤从证据中汇总概率,以产生我们所谓的索赔概率估值。负面观点记录了对案件的怀疑和挑战,通常表示为叛逆者及其探索和解决。保证开发商必须防止确认偏见,并应在制定案件时大力探索潜在的叛逆者,并应记录下来及其解决方案,以避免返工并帮助审阅者。残留疑问:世界不确定,因此并非所有潜在的叛逆者都可以解决。我们探索风险,可能认为它们是可以接受或不可避免的。但是,至关重要的是,这些判断是有意识的判断,并且在保证案例中记录下来。本报告详细介绍了这些观点,并指示了我们的保证2.0的原型工具集如何协助他们的评估。
translated by 谷歌翻译