人工智能是现代技术发展的驱动因素之一。目前智能系统发展的方法是以数据为中心的。它有几个限制:从根本上无法收集用于建模复杂对象和流程的数据;培训神经网络需要巨大的计算和能源资源;解决方案无法解释。本文讨论了基于人机杂交及其共同发展的人工智能系统发展的替代方法。
translated by 谷歌翻译
虽然AI有利于人类,但如果没有适当发展,它也可能会损害人类。 HCI工作的重点是从与非AI计算系统的传统人类交互转换,以与AI系统交互。我们在HCI视角下开展了高级文献综述,对当前工作的整体分析。我们的审核和分析突出了AI技术引入的新变更以及HCI专业人员在AI系统开发中应用人以人为本的AI(HCAI)方法时,新挑战的新挑战。我们还确定了与AI系统人类互动的七个主要问题,其中HCI专业人员在开发非AI计算系统时没有遇到。为了进一步实现HCAI方法的实施,我们确定了与特定的HCAI驱动的设计目标相关的新的HCI机会,以指导HCI专业人员解决这些新问题。最后,我们对当前HCI方法的评估显示了这些方法支持开发AI系统的局限性。我们提出了可以帮助克服这些局限性的替代方法,并有效帮助HCI专业人员将HCAI方法应用于AI系统的发展。我们还为HCI专业人员提供战略建议,以有效影响利用HCAI方法的AI系统的发展,最终发展HCAI系统。
translated by 谷歌翻译
在这一荟萃术中,我们探索了道德人工智能(AI)设计实施的三个不同角度,包括哲学伦理观点,技术观点和通过政治镜头进行框架。我们的定性研究包括一篇文献综述,该综述通过讨论前面发表的对比度上下,自下而上和混合方法的价值和缺点,突出了这些角度的交叉引用。对该框架的小说贡献是政治角度,该角度构成了人工智能中的道德规范,要么由公司和政府决定,并通过政策或法律(来自顶部)强加于人,或者是人民要求的道德(从底部出现) ,以及自上而下,自下而上和混合技术,即AI在道德构造和考虑到其用户中的发展方式以及对世界的预期和意外后果和长期影响。作为自下而上的应用技术方法和AI伦理原则作为一种实际的自上而下方法,重点是强化学习。这项调查包括现实世界中的案例研究,以基于历史事实,当前的世界环境以及随之而来的现实,就AI的伦理和理论未来的思想实验进行了有关AI伦理和理论未来思想实验的哲学辩论。
translated by 谷歌翻译
我们将仔细研究道德,并尝试以可能成为工具的抽象属性的形式提取见解。我们想将道德与游戏联系起来,谈论道德的表现,将好奇心引入竞争和协调良好的伦理学之间的相互作用,并提供可能统一实体汇总的可能发展的看法。所有这些都是由计算复杂性造成的长阴影,这对游戏来说是负面的。该分析是寻找建模方面的第一步,这些方面可能在AI伦理中用于将现代AI系统整合到人类社会中。
translated by 谷歌翻译
We are currently unable to specify human goals and societal values in a way that reliably directs AI behavior. Law-making and legal interpretation form a computational engine that converts opaque human values into legible directives. "Law Informs Code" is the research agenda capturing complex computational legal processes, and embedding them in AI. Similar to how parties to a legal contract cannot foresee every potential contingency of their future relationship, and legislators cannot predict all the circumstances under which their proposed bills will be applied, we cannot ex ante specify rules that provably direct good AI behavior. Legal theory and practice have developed arrays of tools to address these specification problems. For instance, legal standards allow humans to develop shared understandings and adapt them to novel situations. In contrast to more prosaic uses of the law (e.g., as a deterrent of bad behavior through the threat of sanction), leveraged as an expression of how humans communicate their goals, and what society values, Law Informs Code. We describe how data generated by legal processes (methods of law-making, statutory interpretation, contract drafting, applications of legal standards, legal reasoning, etc.) can facilitate the robust specification of inherently vague human goals. This increases human-AI alignment and the local usefulness of AI. Toward society-AI alignment, we present a framework for understanding law as the applied philosophy of multi-agent alignment. Although law is partly a reflection of historically contingent political power - and thus not a perfect aggregation of citizen preferences - if properly parsed, its distillation offers the most legitimate computational comprehension of societal values available. If law eventually informs powerful AI, engaging in the deliberative political process to improve law takes on even more meaning.
translated by 谷歌翻译
即将开发我们呼叫所体现的系统的新一代越来越自主和自学习系统。在将这些系统部署到真实上下文中,我们面临各种工程挑战,因为它以有益的方式协调所体现的系统的行为至关重要,确保他们与我们以人为本的社会价值观的兼容性,并且设计可验证安全可靠的人类-Machine互动。我们正在争辩说,引发系统工程将来自嵌入到体现系统的温室,并确保动态联合的可信度,这种情况意识到的情境意识,意图,探索,探险,不断发展,主要是不可预测的,越来越自主的体现系统在不确定,复杂和不可预测的现实世界环境中。我们还识别了许多迫切性的系统挑战,包括可信赖的体现系统,包括强大而人为的AI,认知架构,不确定性量化,值得信赖的自融化以及持续的分析和保证。
translated by 谷歌翻译
过去二十年来看待人工智能的巨大进步。计算能力方面的指数增长使我们希望发展为机器人等人。问题是:我们在那里吗?也许不会。随着认知科学的整合,人工智能(AI)的“人为”特征可能很快被“聪明”所取代。这将有助于开发更强大的AI系统,并同时让我们更好地了解人脑如何运作。我们讨论弥合这两个领域的各种可能性和挑战以及如何互相受益。我们认为,由于开发这样的先进系统需要更好地了解人类大脑的可能性,AI接管人类文明的可能性很低。
translated by 谷歌翻译
随着全球人口越来越多的人口驱动世界各地的快速城市化,有很大的需要蓄意审议值得生活的未来。特别是,随着现代智能城市拥抱越来越多的数据驱动的人工智能服务,值得记住技术可以促进繁荣,福祉,城市居住能力或社会正义,而是只有当它具有正确的模拟补充时(例如竭尽全力,成熟机构,负责任治理);这些智能城市的最终目标是促进和提高人类福利和社会繁荣。研究人员表明,各种技术商业模式和特征实际上可以有助于极端主义,极化,错误信息和互联网成瘾等社会问题。鉴于这些观察,解决了确保了诸如未来城市技术基岩的安全,安全和可解释性的哲学和道德问题,以为未来城市的技术基岩具有至关重要的。在全球范围内,有能够更加人性化和以人为本的技术。在本文中,我们分析和探索了在人以人为本的应用中成功部署AI的安全,鲁棒性,可解释性和道德(数据和算法)挑战的关键挑战,特别强调这些概念/挑战的融合。我们对这些关键挑战提供了对现有文献的详细审查,并分析了这些挑战中的一个可能导致他人的挑战方式或帮助解决其他挑战。本文还建议了这些域的当前限制,陷阱和未来研究方向,以及如何填补当前的空白并导致更好的解决方案。我们认为,这种严谨的分析将为域名的未来研究提供基准。
translated by 谷歌翻译
如果未来的AI系统在新的情况下是可靠的安全性,那么他们将需要纳入指导它们的一般原则,以便强烈地认识到哪些结果和行为将是有害的。这样的原则可能需要得到约束力的监管制度的支持,该法规需要广泛接受的基本原则。它们还应该足够具体用于技术实施。本文从法律中汲取灵感,解释了负面的人权如何履行此类原则的作用,并为国际监管制度以及为未来的AI系统建立技术安全限制的基础。
translated by 谷歌翻译
值得信赖的人工智能(AI)已成为一个重要的话题,因为在AI系统及其创造者中的信任已经丢失。研究人员,公司和政府具有远离技术开发,部署和监督的边缘化群体的长期和痛苦的历史。结果,这些技术对小群体的有用甚至有害。我们争辩说,渴望信任的任何AI开发,部署和监测框架必须纳入女权主义,非剥削参与性设计原则和强大,外部和持续监测和测试。我们还向考虑到透明度,公平性和问责制的可靠性方面的重要性,特别是考虑对任何值得信赖的AI系统的核心价值观的正义和转移权力。创建值得信赖的AI通过资金,支持和赋予Grassroots组织,如AI Queer等基层组织开始,因此AI领域具有多样性和纳入可信和有效地发展的可信赖AI。我们利用AI的专家知识Queer通过其多年的工作和宣传来讨论以及如何以及如何在数据集和AI系统中使用如何以及如何在数据集和AI系统中使用以及沿着这些线路的危害。基于此,我们分享了对AI的性别方法,进一步提出了Queer认识论并分析它可以带来AI的好处。我们还讨论了如何在愿景中讨论如何使用此Queer认识论,提出与AI和性别多样性和隐私和酷儿数据保护相关的框架。
translated by 谷歌翻译
期望与成功采用AI来创新和改善业务之间仍然存在很大的差距。由于深度学习的出现,AI的采用率更为复杂,因为它经常结合大数据和物联网,从而影响数据隐私。现有的框架已经确定需要专注于以人为中心的设计,结合技术和业务/组织的观点。但是,信任仍然是一个关键问题,需要从一开始就设计。拟议的框架从以人为本的设计方法扩展,强调和维持基于该过程的信任。本文提出了负责人工智能(AI)实施的理论框架。拟议的框架强调了敏捷共同创造过程的协同业务技术方法。目的是简化AI的采用过程来通过在整个项目中参与所有利益相关者来创新和改善业务,以便AI技术的设计,开发和部署与人合作而不是孤立。该框架对基于分析文献综述,概念框架设计和从业者的中介专业知识的负责人AI实施提出了新的观点。该框架强调在以人为以人为中心的设计和敏捷发展中建立和维持信任。这种以人为中心的方式与设计原则的隐私相符和启用。该技术和最终用户的创建者正在共同努力,为业务需求和人类特征定制AI解决方案。关于采用AI来协助医院计划的说明性案例研究将证明该拟议框架适用于现实生活中的应用。
translated by 谷歌翻译
人工智能AI通过帮助降低成本,提高效率并使新的解决方案能够对复杂问题进行新的解决方案,可以为社会带来大量利益。使用佛罗里达如何将“InfoSphere”设计为起点,在本章中,我认为这个问题:设计的限制是什么,即社会概念设计的概念限制是什么?本章的主要论点是,虽然设计是一种有用的概念工具来塑造技术和社会,但设计未来社会的集体努力受到内部和外部因素的限制。通过唤起Hardin的思想实验,讨论了关于“公共悲剧”的思想试验来讨论的内部限制。此外,Hayek'Cosmos'和'Taxis'之间的经典区别用于划分设计的外部限制。最后,提出了五项设计原则,其旨在帮助政策制定者管理设计内部和外部约束。设计未来社会的成功方法需要通过允许诸如诸如肠和社会技术共存的空间来解释复杂系统的紧急性质。
translated by 谷歌翻译
残疾人在医疗保健,就业和政府政策等各个领域的各种复杂的决策过程中受到各种复杂的决策。这些环境通常已经不透明他们影响的人并缺乏充分的残疾观点代表,它迅速采用人工智能(AI)技术来用于数据分析以告知决策,从而增加因不当或不公平的算法而造成的伤害风险增加。本文介绍了一个通过残疾镜头进行严格检查AI数据分析技术的框架,并研究了AI技术设计师选择的残疾定义如何影响其对残疾分析对象的影响。我们考虑了三种残疾的概念模型:医学模型,社会模型和关系模型;并展示在每个模型下设计的AI技术如何差异很大,以至于与彼此不相容和矛盾。通过讨论有关医疗保健和政府残疾福利中AI分析的常见用例,我们说明了技术设计过程中的特定考虑因素和决策点,这些因素和决策点影响了这些环境中的电力动态和包容性,并有助于确定其对边缘化或支持的方向。我们提出的框架可以作为对AI技术的深入批判性检查的基础,并开发用于残疾相关的AI分析的设计实践。
translated by 谷歌翻译
虽然道德人工智能(AI)系统的需求增加,但AI加速的不道德使用的数量,即使没有道德准则不足。我们认为这是一个可能的潜在的原因是,AI开发人员在AI发展伦理中面临社会困境,防止了对道德最佳实践的广泛适应。我们为AI开发的社交困境定义了社会困境,并描述了为什么无法解决AI开发道德的当前危机,而无需缓解其社交困境的AI开发人员。我们认为AI开发必须专业为克服社会困境,并讨论如何在此过程中用作模板。
translated by 谷歌翻译
In this chapter, we review and discuss the transformation of AI technology in HCI/UX work and assess how AI technology will change how we do the work. We first discuss how AI can be used to enhance the result of user research and design evaluation. We then discuss how AI technology can be used to enhance HCI/UX design. Finally, we discuss how AI-enabled capabilities can improve UX when users interact with computing systems, applications, and services.
translated by 谷歌翻译
Digital engineering transformation is a crucial process for the engineering paradigm shifts in the fourth industrial revolution (4IR), and artificial intelligence (AI) is a critical enabling technology in digital engineering transformation. This article discusses the following research questions: What are the fundamental changes in the 4IR? More specifically, what are the fundamental changes in engineering? What is digital engineering? What are the main uncertainties there? What is trustworthy AI? Why is it important today? What are emerging engineering paradigm shifts in the 4IR? What is the relationship between the data-intensive paradigm and digital engineering transformation? What should we do for digitalization? From investigating the pattern of industrial revolutions, this article argues that ubiquitous machine intelligence (uMI) is the defining power brought by the 4IR. Digitalization is a condition to leverage ubiquitous machine intelligence. Digital engineering transformation towards Industry 4.0 has three essential building blocks: digitalization of engineering, leveraging ubiquitous machine intelligence, and building digital trust and security. The engineering design community at large is facing an excellent opportunity to bring the new capabilities of ubiquitous machine intelligence and trustworthy AI principles, as well as digital trust, together in various engineering systems design to ensure the trustworthiness of systems in Industry 4.0.
translated by 谷歌翻译
数字革命带来了技术,行为和真理的道德十字路口。但是,由于数字平台已被用来构建全球混乱和真实性的无知系统,因此需要一个全面和建设性的道德框架。全球系统的不平等结构导致动态变化和系统性问题,这对最脆弱的人产生了更大的影响。仅基于个人级别的道德框架不再足够,因为它们缺乏必要的表达来为新挑战提供解决方案。新的道德愿景必须包括对量表和复杂互连的理解,以及现代社会系统的因果关系。这些系统中的许多系统都在内部脆弱,对外部因素和威胁非常敏感,这导致不道德的情况,这些情况需要仍然以个人为中心的系统性解决方案。此外,多层的网络般的社交组织产生了一组力量,以防止某些社区适当发展。数字技术还影响了个人级别,构成了更加均匀,可预测且最终可控制的人类的风险。为了保护人类的核心和共同真理的愿望,一个新的道德框架必须赋予个人和独特性以及文化异质性,从而解决数字化的负面结果。只有结合以人为本和集体性的数字发展,才有可能构建道德上的新的社会模型和互动。该愿景要求科学使用计算工具来增强道德框架和原理,以支持真实的动作,以转换和配置社会系统的属性。
translated by 谷歌翻译
机器学习显着增强了机器人的能力,使他们能够在人类环境中执行广泛的任务并适应我们不确定的现实世界。机器学习各个领域的最新作品强调了公平性的重要性,以确保这些算法不会再现人类的偏见并导致歧视性结果。随着机器人学习系统在我们的日常生活中越来越多地执行越来越多的任务,了解这种偏见的影响至关重要,以防止对某些人群的意外行为。在这项工作中,我们从跨学科的角度进行了关于机器人学习公平性的首次调查,该研究跨越了技术,道德和法律挑战。我们提出了偏见来源的分类法和由此产生的歧视类型。使用来自不同机器人学习域的示例,我们研究了不公平结果和减轻策略的场景。我们通过涵盖不同的公平定义,道德和法律考虑以及公平机器人学习的方法来介绍该领域的早期进步。通过这项工作,我们旨在为公平机器人学习中的开创性发展铺平道路。
translated by 谷歌翻译
AI的蓬勃发展提示建议,AI技术应该是“以人为本”。然而,没有明确的定义,对人工人工智能或短,HCAI的含义。本文旨在通过解决HCAI的一些基础方面来改善这种情况。为此,我们介绍了术语HCAI代理商,以指配备有AI组件的任何物理或软件计算代理,并与人类交互和/或协作。本文识别参与HCAI代理的五个主要概念组件:观察,要求,行动,解释和模型。我们看到HCAI代理的概念,以及其组件和功能,作为弥合人以人为本的AI技术和非技术讨论的一种方式。在本文中,我们专注于采用在人类存在的动态环境中运行的单一代理的情况分析。
translated by 谷歌翻译
本文介绍了一种使用旨在解决现实世界应用中CDSS的低适用性和可扩展性问题的数据驱动的预测模型来构建一致和适用的临床决策支持系统(CDSS)的方法。该方法基于域特定和数据驱动的支持程序的三种特定于域和数据驱动的支持程序,该程序将被纳入临床业务流程,具有更高的信任和预测结果和建议的解释性。在考虑的三个阶段,监管策略,数据驱动模式和解释程序被集成,以实现与决策者的自然域特定的互动,具有智能决策支持焦点的连续缩小。该提出的方法能够实现更高水平的自动化,可扩展性和CDSS的语义解释性。该方法是在软件解决方案中实现的,并在T2DM预测中进行了测试,使我们能够改善已知的临床尺度(例如FindRisk),同时保持与现有应用程序类似的特定问题的推理界面。这种继承与三分阶段的方法一起提供了更高的解决方案兼容性,并导致数据驱动的解决方案在现实案件中的信任,有效和解释应用。
translated by 谷歌翻译