这项工作提出了用于诊断计算方法的分类法,该方法允许其标准化的评估,分类和比较。目的是(i)使研究人员和从业者对可用诊断技术的各种景观的印象,(ii)允许他们轻松地检索主要功能以及方法的优点和缺点,(iii)启用了轻松且易于根据其特征WRT的技术进行明确比较。重要且定义明确的属性的列表,以及(iv)促进为特定问题案例(例如,在实际诊断设置中,用于比较实验评估)或重用,修改,修改,修改,修改,扩展或研究过程中的改进。
translated by 谷歌翻译
各种基于模型的诊断方案需要计算最优选的故障解释。但是,现有的声音算法(即仅输出实际故障说明)并完成(即可以返回所有说明),但是,需要指数空间才能完成此任务。作为一种补救措施,为了在内存限制的设备上成功诊断和记忆密集型问题案例,我们提出了RBF-HS,这是一种基于KORF众所周知的RBFS算法的诊断搜索方法。 RBF-HS可以在线性空间范围内以最佳优先级的方式列举任意固定数量的故障解释,而无需牺牲理想的声音或完整性属性。使用现实世界诊断病例的评估表明,RBF-HS在计算最小心电图解释时,在大多数情况下,可以节省大量空间(最多98%),而仅需要比Reiter的HS-Tree(相比)更多或更少的时间,通常使用的,通常是适用的声音,完整,最好的诊断搜索。
translated by 谷歌翻译
公司的一个普遍问题是,产品订单的量有时可能超过生产能力。我们正式介绍了两个新的问题,该问题处理了一个问题,该问题要丢弃或推迟以实现某些(及时性)目标,并尝试通过基于模型的诊断来接触它们。在彻底的分析中,我们确定了诊断问题引入的问题的许多相似之处,但也揭示了关键的特质和概述处理或利用它们的方法。最后,对工业规模的问题实例的概念验证评估来自众所周知的调度基准套件,这表明,基于开箱即用的模型诊断工具可以很好地攻击两个形式化问题之一。
translated by 谷歌翻译
为了代表,统计样本必须以随机和公正的方式从人群中获取。然而,在基于模型的诊断领域的常见做法是从(偏见)最佳先前样本进行估计。一个例子是计算有缺陷系统的一些最可能的故障解释,并使用这些解释来评估系统的哪个方面(如果测量)将带来最高的信息增益。在这项工作中,我们仔细检查了这些在统计学上没有得到充分的惯例,即诊断研究人员和从业人员已经遵守了数十年的认可,这确实是合理的。为此,我们通过经验分析了产生故障解释的各种抽样方法。我们研究了产生的样品的代表性,这些样本的估计以及它们指导诊断决策的指导程度以及我们研究样本量的影响,采样效率和有效性之间的最佳权衡以及如何比较采样技术的影响确切的。
translated by 谷歌翻译
当本体学达到一定的规模和复杂性时,几乎无法避免诸如不一致,不满意的课程或错误的课程等故障。找到导致这些故障的不正确的公理是一项艰巨且耗时的任务。在解决这个问题时,已经提出了几种针对本体学中半自动断层定位的技术。通常,这些方法涉及一个人类专家,该专家为有关预期(正确)本体的系统生成的问题提供答案,以减少可能的故障位置。为了提出尽可能多的信息性问题,现有的方法借鉴了各种算法优化以及启发式方法。但是,这些计算通常基于有关交互用户的某些假设。在这项工作中,我们表征和讨论不同的用户类型,并表明现有方法并不能为所有用户实现最佳效率。作为一种补救措施,我们建议一种新型的专家问题,旨在适合所有分析专家的答案行为。此外,我们提出了一种算法,以优化与现场使用的(尝试和测试的)启发式方法完全兼容的新查询类型。关于现实世界中错误的实验表明,新的查询方法的潜力是将专家咨询时间最小化,而与专家类型无关。此外,获得的见解可以为互动调试工具的设计提供信息,以更好地满足用户的需求。
translated by 谷歌翻译
现实世界的语义或基于知识的系统,例如在生物医学领域,可能会变得大而复杂。因此,对此类系统知识库中故障的本地化和修复的工具支持对于它们的实际成功至关重要。相应地,近年来提出了许多知识库调试方法,尤其是基于本体的系统。基于查询的调试是一种相似的交互式方法,它通过向知识工程师提出一系列问题来定位观察到的问题的真正原因。存在这种方法的具体实现,例如本体论编辑器的OntodeBug插件prof \'eg \'e。为了验证新提出的方法比现有方法有利,研究人员通常依靠基于模拟的比较。但是,这种评估方法有一定的局限性,并且通常无法完全告知我们方法的真实性。因此,我们进行了不同的用户研究,以评估基于查询的本体调试的实际价值。研究的一个主要见解是,所考虑的交互方法确实比基于测试案例的替代算法调试更有效。我们还观察到,用户经常在此过程中犯错误,这突出了对用户需要回答的查询的仔细设计的重要性。
translated by 谷歌翻译
给定故障系统,顺序诊断旨在确定在异常行为的系统组件方面识别失败的根本原因。由于最初的系统观察通常不足以确定性地固定系统的不当行为,因此其他系统测量可以帮助区分可能的解释。目的是限制解释的空间,直到只剩下一个(高度可能)的解释。为了通过一组最小成本的测量值来实现这一目标,已经提出了各种选择最佳下一个测量值的(主动学习)启发式方法。我们报告了广泛的正在进行的实验的初步结果,并在现实世界诊断病例上进行了一系列选择启发式方法。特别是,我们试图回答诸如“某些启发式词总是比其他所有人都优越?”之类的问题,“特定启发式方法的(相对)性能取决于哪些因素?”或“在哪些情况下我应该使用启发式方法?”
translated by 谷歌翻译
This volume contains revised versions of the papers selected for the third volume of the Online Handbook of Argumentation for AI (OHAAI). Previously, formal theories of argument and argument interaction have been proposed and studied, and this has led to the more recent study of computational models of argument. Argumentation, as a field within artificial intelligence (AI), is highly relevant for researchers interested in symbolic representations of knowledge and defeasible reasoning. The purpose of this handbook is to provide an open access and curated anthology for the argumentation research community. OHAAI is designed to serve as a research hub to keep track of the latest and upcoming PhD-driven research on the theory and application of argumentation in all areas related to AI.
translated by 谷歌翻译
算法配置(AC)与对参数化算法最合适的参数配置的自动搜索有关。目前,文献中提出了各种各样的交流问题变体和方法。现有评论没有考虑到AC问题的所有衍生物,也没有提供完整的分类计划。为此,我们引入分类法以分别描述配置方法的交流问题和特征。我们回顾了分类法的镜头中现有的AC文献,概述相关的配置方法的设计选择,对比方法和问题变体相互对立,并描述行业中的AC状态。最后,我们的评论为研究人员和从业人员提供了AC领域的未来研究方向。
translated by 谷歌翻译
Ulrich Junker在2004年的开创性论文中提出了QuickXplain算法,该算法提供了一种分裂和拼接计算策略,以在给定的集合中找到具有特定(单调)属性的不可约子集。除了其在约束满意度问题领域的最初应用外,该算法从那以后发现在与基于模型的诊断,推荐系统,验证或语义网等区域的广泛采用。这种受欢迎程度是由于一方面发现不可还原子集以及QuickXplain的一般适用性和有利的计算复杂性的问题。但是,尽管(我们经常体验)人们很难理解QuickXplain,并且了解其工作正常的原因,但该算法的正确性证明从未出版过。这是我们在这项工作中所说的,通过以小说和测试的方式解释QuickXplain,并通过提供可理解的形式证明。除了显示算法的正确性并排除了后来的错误(证明和信任效应)之外,正式证明的可用性的附加值还包括,例如(i)算法的工作通常仅变得完全清楚在研究,验证和理解证据(教学效应)之后,(ii)所示的证明方法可以用作证明其他递归算法(转移效应)的指导,以及(iii)提供“无间隙”正确性证明的可能性依靠QuickXplain(计算结果计算的结果)的系统,例如众多基于模型的调试器(完整性效应)。
translated by 谷歌翻译
组合优化是运营研究和计算机科学领域的一个公认领域。直到最近,它的方法一直集中在孤立地解决问题实例,而忽略了它们通常源于实践中的相关数据分布。但是,近年来,人们对使用机器学习,尤其是图形神经网络(GNN)的兴趣激增,作为组合任务的关键构件,直接作为求解器或通过增强确切的求解器。GNN的电感偏差有效地编码了组合和关系输入,因为它们对排列和对输入稀疏性的意识的不变性。本文介绍了对这个新兴领域的最新主要进步的概念回顾,旨在优化和机器学习研究人员。
translated by 谷歌翻译
背景信息:在过去几年中,机器学习(ML)一直是许多创新的核心。然而,包括在所谓的“安全关键”系统中,例如汽车或航空的系统已经被证明是非常具有挑战性的,因为ML的范式转变为ML带来完全改变传统认证方法。目的:本文旨在阐明与ML为基础的安全关键系统认证有关的挑战,以及文献中提出的解决方案,以解决它们,回答问题的问题如何证明基于机器学习的安全关键系统?'方法:我们开展2015年至2020年至2020年之间发布的研究论文的系统文献综述(SLR),涵盖了与ML系统认证有关的主题。总共确定了217篇论文涵盖了主题,被认为是ML认证的主要支柱:鲁棒性,不确定性,解释性,验证,安全强化学习和直接认证。我们分析了每个子场的主要趋势和问题,并提取了提取的论文的总结。结果:单反结果突出了社区对该主题的热情,以及在数据集和模型类型方面缺乏多样性。它还强调需要进一步发展学术界和行业之间的联系,以加深域名研究。最后,它还说明了必须在上面提到的主要支柱之间建立连接的必要性,这些主要柱主要主要研究。结论:我们强调了目前部署的努力,以实现ML基于ML的软件系统,并讨论了一些未来的研究方向。
translated by 谷歌翻译
在本文中,描述了基于模型的诊断过程,其组件在其输入和输出之间具有因果关系的系统。在此诊断过程中,首先确定了一组可能破裂的组件。其次,对于每个焦点,可以确定焦点内最有用的探测点。诊断过程的这两个步骤都具有最坏的情况时间复杂性,为$ {\ cal o}(n^2)$,其中$ n $是组件的数量。但是,如果组件的连通性较低,则诊断过程显示线性时间复杂性。还显示了如何将所描述的诊断过程应用于包含循环的动态系统和系统。当诊断动态系统时,可以在检测中断故障或通过假设非及时性来提高诊断精度之间进行选择。
translated by 谷歌翻译
保证案件旨在为其最高主张的真理提供合理的信心,这通常涉及安全或保障。那么一个自然的问题是,案件提供了“多少”信心?我们认为,置信度不能简化为单个属性或测量。取而代之的是,我们建议它应该基于以三种不同观点的属性为基础:正面,消极和残留疑问。积极的观点考虑了该案件的证据和总体论点结合起来的程度,以表明其主张的信念是正当的。我们为理由设置了一个高标准,要求它是不可行的。对此的主要积极度量是健全性,它将论点解释为逻辑证明。对证据的信心可以概率地表达,我们使用确认措施来确保证据的“权重”跨越了一定的阈值。此外,可以通过使用概率逻辑的参数步骤从证据中汇总概率,以产生我们所谓的索赔概率估值。负面观点记录了对案件的怀疑和挑战,通常表示为叛逆者及其探索和解决。保证开发商必须防止确认偏见,并应在制定案件时大力探索潜在的叛逆者,并应记录下来及其解决方案,以避免返工并帮助审阅者。残留疑问:世界不确定,因此并非所有潜在的叛逆者都可以解决。我们探索风险,可能认为它们是可以接受或不可避免的。但是,至关重要的是,这些判断是有意识的判断,并且在保证案例中记录下来。本报告详细介绍了这些观点,并指示了我们的保证2.0的原型工具集如何协助他们的评估。
translated by 谷歌翻译
机器人系统的长期自主权隐含地需要可靠的平台,这些平台能够自然处理硬件和软件故障,行为问题或缺乏知识。基于模型的可靠平台还需要在系统开发过程中应用严格的方法,包括使用正确的构造技术来实现机器人行为。随着机器人的自治水平的提高,提供系统可靠性的提供成本也会增加。我们认为,自主机器人的可靠性可靠性可以从几种认知功能,知识处理,推理和元评估的正式模型中受益。在这里,我们为自动机器人代理的认知体系结构的生成模型提出了案例,该模型订阅了基于模型的工程和可靠性,自主计算和知识支持机器人技术的原则。
translated by 谷歌翻译
Machine learning applications have become ubiquitous. Their applications range from embedded control in production machines over process optimization in diverse areas (e.g., traffic, finance, sciences) to direct user interactions like advertising and recommendations. This has led to an increased effort of making machine learning trustworthy. Explainable and fair AI have already matured. They address the knowledgeable user and the application engineer. However, there are users that want to deploy a learned model in a similar way as their washing machine. These stakeholders do not want to spend time in understanding the model, but want to rely on guaranteed properties. What are the relevant properties? How can they be expressed to the stakeholder without presupposing machine learning knowledge? How can they be guaranteed for a certain implementation of a machine learning model? These questions move far beyond the current state of the art and we want to address them here. We propose a unified framework that certifies learning methods via care labels. They are easy to understand and draw inspiration from well-known certificates like textile labels or property cards of electronic devices. Our framework considers both, the machine learning theory and a given implementation. We test the implementation's compliance with theoretical properties and bounds.
translated by 谷歌翻译
在逻辑中使用元规则,即其内容包含其他规则的规则,最近在非单调推理的情况下引起了人们的关注:第一个逻辑形式化和有效算法来计算此类理论的(元)扩展在Olivieri等人(2021年)中提出的这项工作通过考虑悬浮方面扩展了这种逻辑框架。由此产生的逻辑不仅能够建模政策,还可以解决许多法律系统中发生的知名方面。已经研究了我们刚才提到的应用区域中使用不良逻辑(DL)对元符号建模的使用。在这一研究中,上述研究并不关注元符号的一般计算特性。这项研究以两个主要贡献填补了这一空白。首先,我们介绍并形式化了两种具有元符号的可性义能逻辑的变体,以代表(1)具有能态模态的可d不平式元理论,(2)规则之间的两种不同类型的冲突:简单的冲突可不诚实的无义冲突和谨慎的冲突,谨慎的冲突和谨慎的冲突可义的义逻辑。其次,我们推进有效算法以计算两个变体的扩展。
translated by 谷歌翻译
与此同时,在可解释的人工智能(XAI)的研究领域中,已经开发了各种术语,动机,方法和评估标准。随着XAI方法的数量大大增长,研究人员以及从业者以及从业者需要一种方法:掌握主题的广度,比较方法,并根据特定用例所需的特征选择正确的XAI方法语境。在文献中,可以找到许多不同细节水平和深度水平的XAI方法分类。虽然他们经常具有不同的焦点,但它们也表现出许多重叠点。本文统一了这些努力,并提供了XAI方法的分类,这是关于目前研究中存在的概念的概念。在结构化文献分析和元研究中,我们识别并审查了XAI方法,指标和方法特征的50多个最引用和最新的调查。总结在调查调查中,我们将文章的术语和概念合并为统一的结构化分类。其中的单一概念总计超过50个不同的选择示例方法,我们相应地分类。分类学可以为初学者,研究人员和从业者提供服务作为XAI方法特征和方面的参考和广泛概述。因此,它提供了针对有针对性的,用例导向的基础和上下文敏感的未来研究。
translated by 谷歌翻译
可解释的人工智能和可解释的机器学习是重要性越来越重要的研究领域。然而,潜在的概念仍然难以捉摸,并且缺乏普遍商定的定义。虽然社会科学最近的灵感已经重新分为人类受助人的需求和期望的工作,但该领域仍然错过了具体的概念化。通过审查人类解释性的哲学和社会基础,我们采取措施来解决这一挑战,然后我们转化为技术领域。特别是,我们仔细审查了算法黑匣子的概念,并通过解释过程确定的理解频谱并扩展了背景知识。这种方法允许我们将可解释性(逻辑)推理定义为在某些背景知识下解释的透明洞察(进入黑匣子)的解释 - 这是一个从事在Admoleis中理解的过程。然后,我们采用这种概念化来重新审视透明度和预测权力之间的争议权差异,以及对安特 - 人穴和后宫后解释者的影响,以及可解释性发挥的公平和问责制。我们还讨论机器学习工作流程的组件,可能需要可解释性,从以人为本的可解释性建立一系列思想,重点介绍声明,对比陈述和解释过程。我们的讨论调整并补充目前的研究,以帮助更好地导航开放问题 - 而不是试图解决任何个人问题 - 从而为实现的地面讨论和解释的人工智能和可解释的机器学习的未来进展奠定了坚实的基础。我们结束了我们的研究结果,重新审视了实现所需的算法透明度水平所需的人以人为本的解释过程。
translated by 谷歌翻译
过去十年已经看到人工智能(AI)的显着进展,这导致了用于解决各种问题的算法。然而,通过增加模型复杂性并采用缺乏透明度的黑匣子AI模型来满足这种成功。为了响应这种需求,已经提出了说明的AI(Xai)以使AI更透明,从而提高关键结构域中的AI。虽然有几个关于Xai主题的Xai主题的评论,但在Xai中发现了挑战和潜在的研究方向,这些挑战和研究方向被分散。因此,本研究为Xai组织的挑战和未来的研究方向提出了系统的挑战和未来研究方向:(1)基于机器学习生命周期的Xai挑战和研究方向,基于机器的挑战和研究方向阶段:设计,开发和部署。我们认为,我们的META调查通过为XAI地区的未来探索指导提供了XAI文学。
translated by 谷歌翻译