多价值动作推理系统(MARS)是一种基于自动价值的人工代理(AI)的道德决策模型。鉴于一组可用的行动和基本的道德范式,通过使用火星,可以确定具有道德上首选的行动。它可用于实施和建模不同的道德理论,不同的道德范例,以及在自动实践推理和规范决策分析的背景下的组合。它也可以用来模拟道德困境,并发现导致所需结果的道德范式。在本文中,我们对火星进行了凝结的描述,解释其用途,并将其置于现有文献中。
translated by 谷歌翻译
一个自治系统由制造商构建,在患有规范和法律的社会中运营,并与最终用户进行互动。所有这些行动者都是受自治系统行为影响的利益相关者。我们解决这些利益攸关方的道德观点的挑战可以集成在自治系统的行为中。我们提出了一个道德推荐组件,我们称之为JIMINY,它使用规范系统和正式论证的技术,以达到利益攸关方之间的道德协议。 JIMINY代表了使用规范系统的每个利益相关者的道德观点,并有三种解决涉及利益攸关方意见的道德困境。首先,JIMINY认为利益相关者的论据是如何彼此相关的,这可能已经解决了困境。其次,JIMINY结合了利益攸关方的规范性系统,使利益攸关方的合并专业知识可能解决困境。第三,只有当这两种其他方法失败时,JIMINY使用上下文敏感的规则来决定哪个利益相关者优先考虑。在抽象层面,这三种方法的特点是添加参数,参数之间的攻击以及争论之间的攻击。我们展示了JIMINY不仅可以用于道德推理和协作决策,而且还用于提供关于道德行为的解释。
translated by 谷歌翻译
We argue that the attempt to build morality into machines is subject to what we call the Interpretation problem, whereby any rule we give the machine is open to infinite interpretation in ways that we might morally disapprove of, and that the interpretation problem in Artificial Intelligence is an illustration of Wittgenstein's general claim that no rule can contain the criteria for its own application. Using games as an example, we attempt to define the structure of normative spaces and argue that any rule-following within a normative space is guided by values that are external to that space and which cannot themselves be represented as rules. In light of this problem, we analyse the types of mistakes an artificial moral agent could make and we make suggestions about how to build morality into machines by getting them to interpret the rules we give in accordance with these external values, through explicit moral reasoning and the presence of structured values, the adjustment of causal power assigned to the agent and interaction with human agents, such that the machine develops a virtuous character and the impact of the interpretation problem is minimised.
translated by 谷歌翻译
当我们授予人工智能在医疗保健,警务和驾驶等环境中增加权力和独立性时,AI面临道德困境,但缺乏解决这些困境的工具。监管机构,哲学家和计算机科学家对不道德人工智能的危险的警告促使人们对自动化道德的兴趣,即可以执行道德推理的机器的发展。但是,自动化伦理学的先前工作很少与哲学文学相关。哲学家花了几个世纪的时间来辩论道德困境,因此自动化道德在借鉴哲学文学时将是最细微,一致和可靠的。在本文中,我提出了对康德哲学传统忠于自动化的康德伦理的实施。我正式化了康德在二元义逻辑中的绝对命令,在Isabelle定理供摊位中实施了这种形式化,并开发了一个测试框架,以评估我的实施与康德伦理的预期特性相一致。我的系统是朝着哲学上成熟的道德AI代理商迈出的早期一步,它可以在复杂的道德困境中划分判断,因为它基于哲学文学。因为我使用了交互式定理供您,所以我的系统的判断是可以解释的。
translated by 谷歌翻译
由于需要确保安全可靠的人工智能(AI),因此在过去几年中,机器伦理学受到了越来越多的关注。这两种在机器伦理中使用的主要理论是道义和功利主义伦理。另一方面,美德伦理经常被称为另一种伦理理论。尽管这种有趣的方法比流行的道德理论具有一定的优势,但由于其形式化,编纂和解决道德困境以训练良性剂的挑战,工程人工贤惠的媒介几乎没有努力。我们建议通过使用充满道德困境的角色扮演游戏来弥合这一差距。有几种这样的游戏,例如论文,生活很奇怪,主要角色遇到的情况必须通过放弃对他们所珍视的其他东西来选择正确的行动方案。我们从此类游戏中汲取灵感,以展示如何设计系统的角色扮演游戏来发展人造代理中的美德。使用现代的AI技术,例如基于亲和力的强化学习和可解释的AI,我们激励了扮演这种角色扮演游戏的良性代理,以及通过美德道德镜头对他们的决策进行检查。这种代理和环境的发展是朝着实际上正式化和证明美德伦理在伦理代理发展的价值的第一步。
translated by 谷歌翻译
如果未来的AI系统在新的情况下是可靠的安全性,那么他们将需要纳入指导它们的一般原则,以便强烈地认识到哪些结果和行为将是有害的。这样的原则可能需要得到约束力的监管制度的支持,该法规需要广泛接受的基本原则。它们还应该足够具体用于技术实施。本文从法律中汲取灵感,解释了负面的人权如何履行此类原则的作用,并为国际监管制度以及为未来的AI系统建立技术安全限制的基础。
translated by 谷歌翻译
This volume contains revised versions of the papers selected for the third volume of the Online Handbook of Argumentation for AI (OHAAI). Previously, formal theories of argument and argument interaction have been proposed and studied, and this has led to the more recent study of computational models of argument. Argumentation, as a field within artificial intelligence (AI), is highly relevant for researchers interested in symbolic representations of knowledge and defeasible reasoning. The purpose of this handbook is to provide an open access and curated anthology for the argumentation research community. OHAAI is designed to serve as a research hub to keep track of the latest and upcoming PhD-driven research on the theory and application of argumentation in all areas related to AI.
translated by 谷歌翻译
\ EMPH {人工智能}(AI)系统越来越多地参与影响我们生活的决策,确保自动决策是公平的,道德已经成为最优先事项。直观地,我们觉得类似人的决定,人工代理人的判断应该必然地以一些道德原则为基础。然而,如果有关决定所基础的所有有关因素的全部信息,可以真正伦理(人类或人为)和公平(根据任何道德理论)和公平(根据公平的任何概念)的规定在决策时。这提出了两个问题:(1)在设置中,我们依赖使用通过监督学习获得的分类器的AI系统,存在一些感应/泛化,即使在学习期间也可能不存在一些相关属性。 (2)根据游戏揭示任何 - 无论是道德的纯策略都不可避免地易于剥削,建模这些决定。此外,在许多游戏中,只能通过使用混合策略来获得纳什均衡,即实现数学上最佳结果,决定必须随机化。在本文中,我们认为,在监督学习设置中,存在至少以及确定性分类器的随机分类器,因此在许多情况下可能是最佳选择。我们支持我们的理论效果,具有一个实证研究,表明对随机人工决策者的积极社会态度,并讨论了与使用与当前的AI政策和标准化举措相关的随机分类器相关的一些政策和实施问题。
translated by 谷歌翻译
机器人的持续开发使他们在人类环境中的更广泛使用。机器人更加信任,可以通过潜在的关键结果做出越来越重要的决策。因此,必须考虑机器人运行的道德原则。在本文中,我们研究了如何将对比性和非对抗性解释用于理解机器人行动计划的伦理。我们以现有的道德框架为基础,允许用户就计划提出建议并自动生成的对比解释。用户研究的结果表明,生成的解释有助于人类了解机器人计划的基础的道德原则。
translated by 谷歌翻译
我们展示了一个讲故事机器人,通过ACT-R认知架构控制,能够采用不同的说服技术和道德阶段,同时对关于Covid-19的一些主题进行交谈。论文的主要贡献包括在对话期间,在代理程序内记忆中可用的有说服力技术的使用(如果有)使用(如果有的话)的需求驱动模型的提议。在这种模型中测试的说服技术组合从使用讲故事,以绘制技术和基于修辞的参数。据我们所知,这代表了建立一个有说服力的代理商,能够整合关于对话管理,讲故事和说服技术以及道德态度的明确接地的认知假设的混合。本文介绍了63名参与者对系统的探索性评估结果
translated by 谷歌翻译
在这一荟萃术中,我们探索了道德人工智能(AI)设计实施的三个不同角度,包括哲学伦理观点,技术观点和通过政治镜头进行框架。我们的定性研究包括一篇文献综述,该综述通过讨论前面发表的对比度上下,自下而上和混合方法的价值和缺点,突出了这些角度的交叉引用。对该框架的小说贡献是政治角度,该角度构成了人工智能中的道德规范,要么由公司和政府决定,并通过政策或法律(来自顶部)强加于人,或者是人民要求的道德(从底部出现) ,以及自上而下,自下而上和混合技术,即AI在道德构造和考虑到其用户中的发展方式以及对世界的预期和意外后果和长期影响。作为自下而上的应用技术方法和AI伦理原则作为一种实际的自上而下方法,重点是强化学习。这项调查包括现实世界中的案例研究,以基于历史事实,当前的世界环境以及随之而来的现实,就AI的伦理和理论未来的思想实验进行了有关AI伦理和理论未来思想实验的哲学辩论。
translated by 谷歌翻译
道德是人类最长的智力努力之一。近年来,AI和NLP的领域试图撰写与学习系统的与人类相互作用的学习系统,应该被限制为行为道德。该静脉中的一个提议是建立道德模型,可以采取任意文本,并输出关于所描述的情况的道德判断。在这项工作中,我们专注于对最近提出的Delphi模型的单一案例研究,并为该项目的建议自动化道德判决提供了批评。通过对Delphi的审计,我们检查更广泛的问题,适用于任何类似的尝试。我们讨论了机器道德如何通过专注于技术的当前和近期使用技术的方式来讨论机器伦理,以透明度,民主价值观,并允许直接的责任。
translated by 谷歌翻译
我们回顾了有关模型的文献,这些文献试图解释具有金钱回报的正常形式游戏所描述的社交互动中的人类行为。我们首先涵盖社会和道德偏好。然后,我们专注于日益增长的研究,表明人们对描述行动的语言做出反应,尤其是在激活道德问题时。最后,我们认为行为经济学正处于向基于语言的偏好转变的范式中,这将需要探索新的模型和实验设置。
translated by 谷歌翻译
人工智能AI通过帮助降低成本,提高效率并使新的解决方案能够对复杂问题进行新的解决方案,可以为社会带来大量利益。使用佛罗里达如何将“InfoSphere”设计为起点,在本章中,我认为这个问题:设计的限制是什么,即社会概念设计的概念限制是什么?本章的主要论点是,虽然设计是一种有用的概念工具来塑造技术和社会,但设计未来社会的集体努力受到内部和外部因素的限制。通过唤起Hardin的思想实验,讨论了关于“公共悲剧”的思想试验来讨论的内部限制。此外,Hayek'Cosmos'和'Taxis'之间的经典区别用于划分设计的外部限制。最后,提出了五项设计原则,其旨在帮助政策制定者管理设计内部和外部约束。设计未来社会的成功方法需要通过允许诸如诸如肠和社会技术共存的空间来解释复杂系统的紧急性质。
translated by 谷歌翻译
本文描述了(r)ules(o)f(t)he(r)oad(a)dvisor,该代理提供了推荐的和可能从一组人级规则生成的动作。我们以形式和示例描述了Rotra的架构和设计。具体来说,我们使用Rotra正式化和实施英国“道路规则”,并描述如何将其纳入自动驾驶汽车中,从而可以内部推荐遵守道路规则。此外,根据《英国公路法典》(《道路规则》),规定规则是否必须采取行动,或者仅建议采取行动,以指示生成的可能的措施。利用该系统的好处包括能够适应不同司法管辖区的不同法规;允许从规则到行为的清晰可追溯性,并提供外部自动责任机制,可以检查在某些给定情况下是否遵守规则。通过具体的示例,对自动驾驶汽车的模拟显示如何通过将自动驾驶汽车放置在许多情况下,这些场景测试了汽车遵守道路规则的能力。合并该系统的自动驾驶汽车能够确保他们遵守道路和外部(法律或监管机构的规则透明工作,从而使汽车公司,司法管辖区和公众之间的信任更大。
translated by 谷歌翻译
人工智能(AI)的价值分配问题询问我们如何确保人造系统的“价值”(即,客观函数)与人类的价值一致。在本文中,我认为语言交流(自然语言)是稳健价值对齐的必要条件。我讨论了这一主张的真相对试图确保AI系统价值一致的研究计划所带来的后果;或者,更谨慎地设计强大的有益或道德人造代理。
translated by 谷歌翻译
在医疗保健中使用人工智能(AI)的一个适当的道德框架已成为该技术越来越广泛地部署的关键。人工智能的进步具有提高个人水平上结果预测精度的承诺。然而,与任何复杂的人类相互作用一样,将这些技术添加到患者 - 阵容的相互作用中具有潜在的陷阱。尽管医生一直必须仔细考虑其行为的道德背景和含义,但详细的审议可能并没有跟上。我们在医疗保健互动中使用了一个共同但主要的挑战,披露坏消息(可能即将死亡),以说明杰里米·本瑟姆(Jeremy Bentham)在18世纪开发的“ Felicific Colculus”的哲学框架如何有及时的准Quantitative Quantitative AI时代的应用。我们展示了如何使用这种道德算法来评估七个相互排斥和详尽的领域,是否可以在道德上证明AI支持的作用是合理的。
translated by 谷歌翻译
AI的蓬勃发展提示建议,AI技术应该是“以人为本”。然而,没有明确的定义,对人工人工智能或短,HCAI的含义。本文旨在通过解决HCAI的一些基础方面来改善这种情况。为此,我们介绍了术语HCAI代理商,以指配备有AI组件的任何物理或软件计算代理,并与人类交互和/或协作。本文识别参与HCAI代理的五个主要概念组件:观察,要求,行动,解释和模型。我们看到HCAI代理的概念,以及其组件和功能,作为弥合人以人为本的AI技术和非技术讨论的一种方式。在本文中,我们专注于采用在人类存在的动态环境中运行的单一代理的情况分析。
translated by 谷歌翻译
我们将仔细研究道德,并尝试以可能成为工具的抽象属性的形式提取见解。我们想将道德与游戏联系起来,谈论道德的表现,将好奇心引入竞争和协调良好的伦理学之间的相互作用,并提供可能统一实体汇总的可能发展的看法。所有这些都是由计算复杂性造成的长阴影,这对游戏来说是负面的。该分析是寻找建模方面的第一步,这些方面可能在AI伦理中用于将现代AI系统整合到人类社会中。
translated by 谷歌翻译
辅助抗菌处方的人工智能(AI)提出了重大的道德问题。利用与AI驱动的系统一起利用道德框架,同时考虑特定的复杂性,可以支持道德决策以应对抗菌抗性。
translated by 谷歌翻译