一个自治系统由制造商构建,在患有规范和法律的社会中运营,并与最终用户进行互动。所有这些行动者都是受自治系统行为影响的利益相关者。我们解决这些利益攸关方的道德观点的挑战可以集成在自治系统的行为中。我们提出了一个道德推荐组件,我们称之为JIMINY,它使用规范系统和正式论证的技术,以达到利益攸关方之间的道德协议。 JIMINY代表了使用规范系统的每个利益相关者的道德观点,并有三种解决涉及利益攸关方意见的道德困境。首先,JIMINY认为利益相关者的论据是如何彼此相关的,这可能已经解决了困境。其次,JIMINY结合了利益攸关方的规范性系统,使利益攸关方的合并专业知识可能解决困境。第三,只有当这两种其他方法失败时,JIMINY使用上下文敏感的规则来决定哪个利益相关者优先考虑。在抽象层面,这三种方法的特点是添加参数,参数之间的攻击以及争论之间的攻击。我们展示了JIMINY不仅可以用于道德推理和协作决策,而且还用于提供关于道德行为的解释。
translated by 谷歌翻译
This volume contains revised versions of the papers selected for the third volume of the Online Handbook of Argumentation for AI (OHAAI). Previously, formal theories of argument and argument interaction have been proposed and studied, and this has led to the more recent study of computational models of argument. Argumentation, as a field within artificial intelligence (AI), is highly relevant for researchers interested in symbolic representations of knowledge and defeasible reasoning. The purpose of this handbook is to provide an open access and curated anthology for the argumentation research community. OHAAI is designed to serve as a research hub to keep track of the latest and upcoming PhD-driven research on the theory and application of argumentation in all areas related to AI.
translated by 谷歌翻译
在逻辑中使用元规则,即其内容包含其他规则的规则,最近在非单调推理的情况下引起了人们的关注:第一个逻辑形式化和有效算法来计算此类理论的(元)扩展在Olivieri等人(2021年)中提出的这项工作通过考虑悬浮方面扩展了这种逻辑框架。由此产生的逻辑不仅能够建模政策,还可以解决许多法律系统中发生的知名方面。已经研究了我们刚才提到的应用区域中使用不良逻辑(DL)对元符号建模的使用。在这一研究中,上述研究并不关注元符号的一般计算特性。这项研究以两个主要贡献填补了这一空白。首先,我们介绍并形式化了两种具有元符号的可性义能逻辑的变体,以代表(1)具有能态模态的可d不平式元理论,(2)规则之间的两种不同类型的冲突:简单的冲突可不诚实的无义冲突和谨慎的冲突,谨慎的冲突和谨慎的冲突可义的义逻辑。其次,我们推进有效算法以计算两个变体的扩展。
translated by 谷歌翻译
本体论是在不同领域(包括法律领域)中知识表示的流行方法,描述逻辑(DL)通常用作其描述语言。为了根据基于DL不一致的法律本体论进行推理,目前的论文介绍了一个结构化的论证框架,尤其是根据ASPIC+在法律背景下推理,并将法律本体论转化为论证理论的公式和规则。从法律AI的角度来看,特别关注自动驾驶汽车的设计,我们表明,使用这种正式论证和基于DL的法律本体论的结合理论,可以根据不一致的本体论来获得可接受的断言,并根据本体的不一致以及传统的推理任务来获得DL本体也可以完成。此外,提出了对推理结果的解释的形式定义。
translated by 谷歌翻译
There has been a recent resurgence in the area of explainable artificial intelligence as researchers and practitioners seek to make their algorithms more understandable. Much of this research is focused on explicitly explaining decisions or actions to a human observer, and it should not be controversial to say that looking at how humans explain to each other can serve as a useful starting point for explanation in artificial intelligence. However, it is fair to say that most work in explainable artificial intelligence uses only the researchers' intuition of what constitutes a 'good' explanation. There exists vast and valuable bodies of research in philosophy, psychology, and cognitive science of how people define, generate, select, evaluate, and present explanations, which argues that people employ certain cognitive biases and social expectations towards the explanation process. This paper argues that the field of explainable artificial intelligence should build on this existing research, and reviews relevant papers from philosophy, cognitive psychology/science, and social psychology, which study these topics. It draws out some important findings, and discusses ways that these can be infused with work on explainable artificial intelligence.
translated by 谷歌翻译
如果未来的AI系统在新的情况下是可靠的安全性,那么他们将需要纳入指导它们的一般原则,以便强烈地认识到哪些结果和行为将是有害的。这样的原则可能需要得到约束力的监管制度的支持,该法规需要广泛接受的基本原则。它们还应该足够具体用于技术实施。本文从法律中汲取灵感,解释了负面的人权如何履行此类原则的作用,并为国际监管制度以及为未来的AI系统建立技术安全限制的基础。
translated by 谷歌翻译
本文对法律合同签署的流程产生了逻辑理解,其申请在区间平台上的智能合同的法律承认智能合同的基础上。开发了许多公理和推论规则,可以用于证明从某些内容签署的事实中为合同形成的“思想会议”的前提。除了“提供和验收”的过程之外,该文件还考虑了同行的“签名”,这是一个独立的双方或可能,远程)签署合同的不同副本,而不是将他们的签名放在常见的副本上。有人认为,对应于同行的签名令人满意的签名与句法自我引用的逻辑。使用的公理由正式的语义支持,并研究了逻辑的一些进一步性质。特别是,表明逻辑意味着当合同已签署时,各方不仅仅是一致,而且是关于合同条款的相互协议(一个共同知识的概念)。
translated by 谷歌翻译
即将开发我们呼叫所体现的系统的新一代越来越自主和自学习系统。在将这些系统部署到真实上下文中,我们面临各种工程挑战,因为它以有益的方式协调所体现的系统的行为至关重要,确保他们与我们以人为本的社会价值观的兼容性,并且设计可验证安全可靠的人类-Machine互动。我们正在争辩说,引发系统工程将来自嵌入到体现系统的温室,并确保动态联合的可信度,这种情况意识到的情境意识,意图,探索,探险,不断发展,主要是不可预测的,越来越自主的体现系统在不确定,复杂和不可预测的现实世界环境中。我们还识别了许多迫切性的系统挑战,包括可信赖的体现系统,包括强大而人为的AI,认知架构,不确定性量化,值得信赖的自融化以及持续的分析和保证。
translated by 谷歌翻译
We are currently unable to specify human goals and societal values in a way that reliably directs AI behavior. Law-making and legal interpretation form a computational engine that converts opaque human values into legible directives. "Law Informs Code" is the research agenda capturing complex computational legal processes, and embedding them in AI. Similar to how parties to a legal contract cannot foresee every potential contingency of their future relationship, and legislators cannot predict all the circumstances under which their proposed bills will be applied, we cannot ex ante specify rules that provably direct good AI behavior. Legal theory and practice have developed arrays of tools to address these specification problems. For instance, legal standards allow humans to develop shared understandings and adapt them to novel situations. In contrast to more prosaic uses of the law (e.g., as a deterrent of bad behavior through the threat of sanction), leveraged as an expression of how humans communicate their goals, and what society values, Law Informs Code. We describe how data generated by legal processes (methods of law-making, statutory interpretation, contract drafting, applications of legal standards, legal reasoning, etc.) can facilitate the robust specification of inherently vague human goals. This increases human-AI alignment and the local usefulness of AI. Toward society-AI alignment, we present a framework for understanding law as the applied philosophy of multi-agent alignment. Although law is partly a reflection of historically contingent political power - and thus not a perfect aggregation of citizen preferences - if properly parsed, its distillation offers the most legitimate computational comprehension of societal values available. If law eventually informs powerful AI, engaging in the deliberative political process to improve law takes on even more meaning.
translated by 谷歌翻译
我们展示了一个讲故事机器人,通过ACT-R认知架构控制,能够采用不同的说服技术和道德阶段,同时对关于Covid-19的一些主题进行交谈。论文的主要贡献包括在对话期间,在代理程序内记忆中可用的有说服力技术的使用(如果有)使用(如果有的话)的需求驱动模型的提议。在这种模型中测试的说服技术组合从使用讲故事,以绘制技术和基于修辞的参数。据我们所知,这代表了建立一个有说服力的代理商,能够整合关于对话管理,讲故事和说服技术以及道德态度的明确接地的认知假设的混合。本文介绍了63名参与者对系统的探索性评估结果
translated by 谷歌翻译
保证案件旨在为其最高主张的真理提供合理的信心,这通常涉及安全或保障。那么一个自然的问题是,案件提供了“多少”信心?我们认为,置信度不能简化为单个属性或测量。取而代之的是,我们建议它应该基于以三种不同观点的属性为基础:正面,消极和残留疑问。积极的观点考虑了该案件的证据和总体论点结合起来的程度,以表明其主张的信念是正当的。我们为理由设置了一个高标准,要求它是不可行的。对此的主要积极度量是健全性,它将论点解释为逻辑证明。对证据的信心可以概率地表达,我们使用确认措施来确保证据的“权重”跨越了一定的阈值。此外,可以通过使用概率逻辑的参数步骤从证据中汇总概率,以产生我们所谓的索赔概率估值。负面观点记录了对案件的怀疑和挑战,通常表示为叛逆者及其探索和解决。保证开发商必须防止确认偏见,并应在制定案件时大力探索潜在的叛逆者,并应记录下来及其解决方案,以避免返工并帮助审阅者。残留疑问:世界不确定,因此并非所有潜在的叛逆者都可以解决。我们探索风险,可能认为它们是可以接受或不可避免的。但是,至关重要的是,这些判断是有意识的判断,并且在保证案例中记录下来。本报告详细介绍了这些观点,并指示了我们的保证2.0的原型工具集如何协助他们的评估。
translated by 谷歌翻译
We argue that the attempt to build morality into machines is subject to what we call the Interpretation problem, whereby any rule we give the machine is open to infinite interpretation in ways that we might morally disapprove of, and that the interpretation problem in Artificial Intelligence is an illustration of Wittgenstein's general claim that no rule can contain the criteria for its own application. Using games as an example, we attempt to define the structure of normative spaces and argue that any rule-following within a normative space is guided by values that are external to that space and which cannot themselves be represented as rules. In light of this problem, we analyse the types of mistakes an artificial moral agent could make and we make suggestions about how to build morality into machines by getting them to interpret the rules we give in accordance with these external values, through explicit moral reasoning and the presence of structured values, the adjustment of causal power assigned to the agent and interaction with human agents, such that the machine develops a virtuous character and the impact of the interpretation problem is minimised.
translated by 谷歌翻译
当我们授予人工智能在医疗保健,警务和驾驶等环境中增加权力和独立性时,AI面临道德困境,但缺乏解决这些困境的工具。监管机构,哲学家和计算机科学家对不道德人工智能的危险的警告促使人们对自动化道德的兴趣,即可以执行道德推理的机器的发展。但是,自动化伦理学的先前工作很少与哲学文学相关。哲学家花了几个世纪的时间来辩论道德困境,因此自动化道德在借鉴哲学文学时将是最细微,一致和可靠的。在本文中,我提出了对康德哲学传统忠于自动化的康德伦理的实施。我正式化了康德在二元义逻辑中的绝对命令,在Isabelle定理供摊位中实施了这种形式化,并开发了一个测试框架,以评估我的实施与康德伦理的预期特性相一致。我的系统是朝着哲学上成熟的道德AI代理商迈出的早期一步,它可以在复杂的道德困境中划分判断,因为它基于哲学文学。因为我使用了交互式定理供您,所以我的系统的判断是可以解释的。
translated by 谷歌翻译
多价值动作推理系统(MARS)是一种基于自动价值的人工代理(AI)的道德决策模型。鉴于一组可用的行动和基本的道德范式,通过使用火星,可以确定具有道德上首选的行动。它可用于实施和建模不同的道德理论,不同的道德范例,以及在自动实践推理和规范决策分析的背景下的组合。它也可以用来模拟道德困境,并发现导致所需结果的道德范式。在本文中,我们对火星进行了凝结的描述,解释其用途,并将其置于现有文献中。
translated by 谷歌翻译
参数系统基于这样的想法,即人们可以为命题构建参数。即,结构化的理由证明了对命题的信念。使用不良规则,在所有情况下都不必有效,因此,可以为命题及其否定构建一个论点。当论点支持冲突的命题时,必须击败其中一个论点,这提出了\ emph {(sub-)论点的问题可能会被击败}的问题?在法律论证中,元符号通过考虑冲突中涉及的每个论点的最后一个不辩护的规则来确定有效的论点。由于使用其最后一个规则评估参数更容易,因此\ emph {可以通过仅考虑所涉及的参数的最后一个不辩护的规则来解决冲突}?我们提出了一个新的参数系统,其中构建了\ emph {bustercutting-arguments},而不是在构建失败规则的情况下\ emph {bustercutting-arguments}。该系统允许我们(\ textit {i})仅使用不一致的参数的最后规则来解决冲突(反驳参数的概括),(\ textit {ii})来确定一组有效的(不败)参数在线性时间内使用基于JTMS的算法(\ textit {iii})建立与默认逻辑的关系,并且(\ textit {iv})证明了closure属性,例如\ emph {cumulativity}。我们还提出了一个参数系统的扩展,该系统可以启用\ emph {bia cases}。
translated by 谷歌翻译
AI的蓬勃发展提示建议,AI技术应该是“以人为本”。然而,没有明确的定义,对人工人工智能或短,HCAI的含义。本文旨在通过解决HCAI的一些基础方面来改善这种情况。为此,我们介绍了术语HCAI代理商,以指配备有AI组件的任何物理或软件计算代理,并与人类交互和/或协作。本文识别参与HCAI代理的五个主要概念组件:观察,要求,行动,解释和模型。我们看到HCAI代理的概念,以及其组件和功能,作为弥合人以人为本的AI技术和非技术讨论的一种方式。在本文中,我们专注于采用在人类存在的动态环境中运行的单一代理的情况分析。
translated by 谷歌翻译
The optimal liability framework for AI systems remains an unsolved problem across the globe. In a much-anticipated move, the European Commission advanced two proposals outlining the European approach to AI liability in September 2022: a novel AI Liability Directive and a revision of the Product Liability Directive. They constitute the final, and much-anticipated, cornerstone of AI regulation in the EU. Crucially, the liability proposals and the EU AI Act are inherently intertwined: the latter does not contain any individual rights of affected persons, and the former lack specific, substantive rules on AI development and deployment. Taken together, these acts may well trigger a Brussels effect in AI regulation, with significant consequences for the US and other countries. This paper makes three novel contributions. First, it examines in detail the Commission proposals and shows that, while making steps in the right direction, they ultimately represent a half-hearted approach: if enacted as foreseen, AI liability in the EU will primarily rest on disclosure of evidence mechanisms and a set of narrowly defined presumptions concerning fault, defectiveness and causality. Hence, second, the article suggests amendments, which are collected in an Annex at the end of the paper. Third, based on an analysis of the key risks AI poses, the final part of the paper maps out a road for the future of AI liability and regulation, in the EU and beyond. This includes: a comprehensive framework for AI liability; provisions to support innovation; an extension to non-discrimination/algorithmic fairness, as well as explainable AI; and sustainability. I propose to jump-start sustainable AI regulation via sustainability impact assessments in the AI Act and sustainable design defects in the liability regime. In this way, the law may help spur not only fair AI and XAI, but potentially also sustainable AI (SAI).
translated by 谷歌翻译
\ EMPH {人工智能}(AI)系统越来越多地参与影响我们生活的决策,确保自动决策是公平的,道德已经成为最优先事项。直观地,我们觉得类似人的决定,人工代理人的判断应该必然地以一些道德原则为基础。然而,如果有关决定所基础的所有有关因素的全部信息,可以真正伦理(人类或人为)和公平(根据任何道德理论)和公平(根据公平的任何概念)的规定在决策时。这提出了两个问题:(1)在设置中,我们依赖使用通过监督学习获得的分类器的AI系统,存在一些感应/泛化,即使在学习期间也可能不存在一些相关属性。 (2)根据游戏揭示任何 - 无论是道德的纯策略都不可避免地易于剥削,建模这些决定。此外,在许多游戏中,只能通过使用混合策略来获得纳什均衡,即实现数学上最佳结果,决定必须随机化。在本文中,我们认为,在监督学习设置中,存在至少以及确定性分类器的随机分类器,因此在许多情况下可能是最佳选择。我们支持我们的理论效果,具有一个实证研究,表明对随机人工决策者的积极社会态度,并讨论了与使用与当前的AI政策和标准化举措相关的随机分类器相关的一些政策和实施问题。
translated by 谷歌翻译
本文介绍了可不可避免的义逻辑的扩展,以解决务实的奇数问题。该逻辑应用三个一般原则:(1)必须在CTD推理的一般逻辑处理中解决务实的奇数问题;(2)必须采用非单调方法来处理CTD推理;(3)CTD推理的逻辑模型必须在计算上是可行的,并且如果可能的话,必须有效。提议的不理deontic逻辑的扩展详细阐述了政府机构和Rotolo(2019)提出的模型的初步版本。先前的解决方案是基于逻辑(建设性,自上而下)证明理论的特定特征。但是,该方法引入了一定程度的非确定性。为了避免问题,我们提供逻辑的自下而上表征。新的特征为有效实施逻辑提供了见解,并使我们能够建立问题的计算复杂性。
translated by 谷歌翻译
我们回顾了有关模型的文献,这些文献试图解释具有金钱回报的正常形式游戏所描述的社交互动中的人类行为。我们首先涵盖社会和道德偏好。然后,我们专注于日益增长的研究,表明人们对描述行动的语言做出反应,尤其是在激活道德问题时。最后,我们认为行为经济学正处于向基于语言的偏好转变的范式中,这将需要探索新的模型和实验设置。
translated by 谷歌翻译