本文提供了在CVPR 2021会议上组织的讲习班*在CVPR 2021年会议上的创新应用中学到的伦理考虑因素,以及在ECCV的时尚,艺术和设计*的计算机愿景(ECCV)的一系列讲习班2018年,ICCV 2019年和CVPR 2020。我们希望这一反思将把艺术家和机器学习研究人员带入计算机视觉创造性应用的道德和社会方面的对话。
translated by 谷歌翻译
为了回应对新的基于AI的技术的社会,法律和道德影响的认识,AI和ML少校会议和期刊现在鼓励或要求提交的论文包括道德影响声明并接受道德审查。这一举动引发了关于伦理在AI和数据科学研究中的作用的激烈辩论,有时会变成适得其反的名称和“取消”的威胁。我们认为,更加关注数据科学家的道德教育可能有助于弥合分离数据科学界的意识形态鸿沟。我们将这种深厚的意识形态冲突诊断为原子主义者和整体者之间的一项冲突。除其他事项外,原子主义者认为,事实是并且应该与价值观分开的想法,而整体者认为事实和价值观是并且应该彼此之间的不可分割。我们的目标是鼓励跨学科和减少学科两极分化的目标,我们借鉴了从哲学和法律到社会理论和人文心理学等各种历史来源,以描述每个意识形态的信仰和假设。最后,我们呼吁数据科学界内的原子主义者和整体者在道德分歧期间表现出更大的同理心,并提出四种有针对性的策略,以确保数据科学研究受益社会。
translated by 谷歌翻译
值得信赖的人工智能(AI)已成为一个重要的话题,因为在AI系统及其创造者中的信任已经丢失。研究人员,公司和政府具有远离技术开发,部署和监督的边缘化群体的长期和痛苦的历史。结果,这些技术对小群体的有用甚至有害。我们争辩说,渴望信任的任何AI开发,部署和监测框架必须纳入女权主义,非剥削参与性设计原则和强大,外部和持续监测和测试。我们还向考虑到透明度,公平性和问责制的可靠性方面的重要性,特别是考虑对任何值得信赖的AI系统的核心价值观的正义和转移权力。创建值得信赖的AI通过资金,支持和赋予Grassroots组织,如AI Queer等基层组织开始,因此AI领域具有多样性和纳入可信和有效地发展的可信赖AI。我们利用AI的专家知识Queer通过其多年的工作和宣传来讨论以及如何以及如何在数据集和AI系统中使用如何以及如何在数据集和AI系统中使用以及沿着这些线路的危害。基于此,我们分享了对AI的性别方法,进一步提出了Queer认识论并分析它可以带来AI的好处。我们还讨论了如何在愿景中讨论如何使用此Queer认识论,提出与AI和性别多样性和隐私和酷儿数据保护相关的框架。
translated by 谷歌翻译
人工智能的最新发展提高了其在很大程度上自主和协作背景下创建艺术的能力。在这两种情况下,AI旨在模仿,结合和扩展现有的艺术风格,并可以改变创造性实践。在我们正在进行的研究中,我们从可持续性和道德角度研究了这种创意-AI。这两个主要重点领域是了解涉及创意-AI的艺术过程中的环境可持续性方面(材料,实践),以及与谁参与创建过程(权力,作者身份,所有权)有关的道德问题。本文概述了我们在这两个方向上正在进行的研究。我们将介绍我们的跨学科方法,该方法结合了访谈,讲习班,在线人种志和能源测量,以解决我们的研究问题:艺术家社区当前如何使用Creative-AI,以及艺术家想象的未来应用?当AI应用于创建艺术时,它将如何影响经济和环境?而且,如何回答这些问题指导创意ai的知识产权制度的要求?
translated by 谷歌翻译
计算机愿景领域正在快速发展,特别是在神经结构设计的新方法的背景下。这些模型有助于(1)气候危机 - 增加二氧化碳排放量和(2)隐私危机 - 数据泄漏问题。为了解决经常忽视的影响计算机愿景(CV)社区对这些危机,我们概述了一个新颖的道德框架,\ Textit {P4ai}:AI的原则,是AI内伦理困境的增强原则看法。然后,我们建议使用P4AI向社区制定具体的建议,以减轻气候和隐私危机。
translated by 谷歌翻译
在理想的世界中,部署的机器学习模式将增强我们的社会。我们希望这些模型能够提供对每个人受益的无偏见和道德决策。然而,这并非总是如此;问题从数据策核流程到模型的部署时出现。继续使用偏见的数据集和流程将对社区产生不利影响并提高成本来解决问题。在这项工作中,我们通过决策过程,研究人员需要在他们的项目之前,期间和之后考虑研究和社区的更广泛影响。在本文中,我们遵守部署AI往往被忽视的关键决策,争论使用公平取证来发现系统中的偏见和公平问题,请断言负责任的人类循环将问责部署的系统,最后,反思了探索具有有害社会影响的研究议程的必要性。我们检查视觉隐私研究,并绘制可以广泛应用于人工智能的课程。我们的目标是提供对机器学习管道的系统分析,以获得视觉隐私和偏见问题。通过这个管道,我们希望培养利益相关者(例如,研究人员,建模者,公司)意识,因为这些问题在各种机器学习阶段传播。
translated by 谷歌翻译
教育技术,以及他们部署的学校教育系统,制定了特定的意识形态,了解有关知识的重要事项以及学习者应该如何学习。作为人工智能技术 - 在教育和超越 - 可能导致边缘社区的不公平结果,已经制定了各种方法来评估和减轻AI的有害影响。然而,我们争辩于本文认为,在AI模型中的性能差异的基础上评估公平的主导范式是面对教育AI系统(RE)生产的系统性不公平。我们在批判理论和黑色女权主义奖学金中汲取了结构性不公正的镜头,以批判性地审查了几个普遍研究的和广泛采用的教育AI类别,并探讨了他们如何融入和重现结构不公正和不公平的历史遗产和不公平的历史遗产。他们模型绩效的奇偶阶段。我们关闭了替代愿景,为教育ai提供更公平的未来。
translated by 谷歌翻译
在文化遗产部门中,在将机器学习技术应用于数字收藏时,已经做出了越来越多的努力来考虑关键的社会技术视角。尽管文化遗产社区共同开发了一大批工作,详细介绍了在组织层面的图书馆和其他文化遗产机构中的机器学习负责任的运营,但仍有很少专门针对从业人员踏上机器学习项目的实践者。将机器学习应用于文化遗产所涉及的歧管赌注和敏感性强调了制定此类准则的重要性。本文通过在开发利用文化遗产数据的机器学习项目时使用指导性问题和实践来制定详细的清单,从而为这一需求做出了贡献。我将结果清单称为“收集为ML数据”清单,完成后,该清单可以通过项目的可交付成果发布。通过调查现有项目,包括我自己的项目,报纸导航员,我证明了“作为ML数据的收集”清单是合理的,并证明了如何采用和操作该制定的指导问题。
translated by 谷歌翻译
在这项工作中,我们向阿姆斯特丹大学的人工智能(_MACE-AI)的技术,研究生,保密性和透明度的技术,审查,保密性和透明度的设置,它通过再现性的镜头教导了概念。该课程的焦点是基于从顶级AI会议的现有事实-AI算法的基础项目,并撰写关于他们的经历的报告。在课程的第一次迭代中,我们创建了一个具有来自组项目的代码实现的开源存储库。在第二次迭代中,我们鼓励学生将他们的小组项目提交给机器学习再现性挑战,这导致了我们课程所接受的9个报告。我们反映了我们在两个学年课程教学的经验,其中一年恰逢全球大流行,并通过研究生级AI计划的可重复性提出了教学局面的指导。我们希望这可以成为教师在未来在其大学建立类似课程的有用资源。
translated by 谷歌翻译
Xenophobia is one of the key drivers of marginalisation, discrimination, and conflict, yet many prominent machine learning (ML) fairness frameworks fail to comprehensively measure or mitigate the resulting xenophobic harms. Here we aim to bridge this conceptual gap and help facilitate safe and ethical design of artificial intelligence (AI) solutions. We ground our analysis of the impact of xenophobia by first identifying distinct types of xenophobic harms, and then applying this framework across a number of prominent AI application domains, reviewing the potential interplay between AI and xenophobia on social media and recommendation systems, healthcare, immigration, employment, as well as biases in large pre-trained models. These help inform our recommendations towards an inclusive, xenophilic design of future AI systems.
translated by 谷歌翻译
在每日新兴科学调查和发现的世界中,跨行业的机器学习的多产推出对于熟悉ML潜力的人来说令人惊讶。这种伦理集中研究的一致性既不是对源于同一申请的偏见和不公平问题的回应而产生的。对抗算法偏差的技术的公平研究现在比以往任何时候都更加支持。大部分公平研究已经开始生产工具,即机器学习从业者可以在设计其算法时审核偏差。尽管如此,在实践中缺乏应用这些公平解决方案。该系统审查提供了已经定义的算法偏置问题的深入摘要,并提出了公平解决空间。此外,本综述提供了对溶液空间的深入崩溃,自释放以来出现的溶液空间以及机器学习从业者,公平研究人员和机构利益攸关方提出的需求的分类。这些需求已经组织并向各方组织并解决了其实施,包括公平研究人员,产生ML算法的组织以及机器学习从业者自己。这些发现可以在未来使用,以弥合从业者和公平专家之间的差距,并告知创建可用的展示展示率工具包。
translated by 谷歌翻译
为了调节机器学习驱动的系统(ML)系统,当前的审核过程主要集中于检测有害算法偏见。尽管这些策略已被证明具有影响力,但在审计过程中涉及ML驱动系统中伦理的文档中概述的一些价值仍然不足。这种未解决的值主要处理无法轻易量化的上下文因素。在本文中,我们开发了一个基于价值的评估框架,该框架不限于偏见审计,并涵盖了算法系统的重要道德原则。我们的框架提出了值的圆形布置,并具有两个双极尺寸,这些二极管尺寸使共同的动机和潜在的紧张局势明确。为了实现这些高级原则,然后将价值分解为特定的标准及其表现形式。但是,其中一些特定于价值的标准是相互排斥的,需要协商。与仅依靠ML研究人员和从业者的意见的其他一些其他审计框架相反,我们认为有必要包括利益相关者,这些利益相关者表现出各种观点,以系统地谈判和巩固价值和标准紧张局势。为此,我们将利益相关者绘制有不同的见解需求,并为将价值表现传达给他们的量身定制手段。因此,我们通过评估框架为当前的ML审计实践做出了贡献,该实践可视化价值之间的亲密关系和紧张局势,并给出了如何对其进行操作的准则,同时向广泛的利益相关者开放评估和审议过程。
translated by 谷歌翻译
Digital engineering transformation is a crucial process for the engineering paradigm shifts in the fourth industrial revolution (4IR), and artificial intelligence (AI) is a critical enabling technology in digital engineering transformation. This article discusses the following research questions: What are the fundamental changes in the 4IR? More specifically, what are the fundamental changes in engineering? What is digital engineering? What are the main uncertainties there? What is trustworthy AI? Why is it important today? What are emerging engineering paradigm shifts in the 4IR? What is the relationship between the data-intensive paradigm and digital engineering transformation? What should we do for digitalization? From investigating the pattern of industrial revolutions, this article argues that ubiquitous machine intelligence (uMI) is the defining power brought by the 4IR. Digitalization is a condition to leverage ubiquitous machine intelligence. Digital engineering transformation towards Industry 4.0 has three essential building blocks: digitalization of engineering, leveraging ubiquitous machine intelligence, and building digital trust and security. The engineering design community at large is facing an excellent opportunity to bring the new capabilities of ubiquitous machine intelligence and trustworthy AI principles, as well as digital trust, together in various engineering systems design to ensure the trustworthiness of systems in Industry 4.0.
translated by 谷歌翻译
人工智能(AI)越来越多地用于分析各种实践中的大量数据,例如对象识别。我们专门对使用AI驱动的系统来参与当地社区的发展或解决方案,以便按社会和环境问题。这种当地背景往往涉及多个具有不同甚至矛盾议程的利益攸关方,导致对这些系统的行为和所需结果的不匹配期望。需要调查AI模型和管道是否可以通过共同创建和现场部署在不同环境中的预期工作。基于与当地人民共同创建AI动力系统的案例研究,我们解释了需要更多关注的挑战,并为公民需求进行桥梁AI研究提供可行的路径。我们倡导开发在多利益相关者背景下共同创建AI动力系统所需的新协作方法和心态,以解决当地问题。
translated by 谷歌翻译
有大量且不断增长的证据和文学探索人工智能(AI)技术对整个社会,政治和人类的影响。单独的平行工作已经探索了人类的存在风险,包括但不限于非对齐的人工通用智能(AGI)的风险。在本文中,我们认为当前和近期人工智能技术有可能通过充当中间风险因素来促进存在风险的观念,并且这种潜力不仅限于不规则的AGI场景。我们提出这样的假设,即AI的某些已经记录的影响可以充当存在的风险因素,从而放大了先前确定的存在风险来源的可能性。此外,即使在没有人工通用智能的情况下,未来十年的未来发展也有可能极大地加剧这些危险因素。我们的主要贡献是对潜在的AI风险因素以及它们之间的因果关系的(非排斥)的解释,重点是AI如何影响电力动态和信息安全。该博览会表明,从AI系统到没有假设未来AI能力的存在风险存在因果途径。
translated by 谷歌翻译
残疾人在医疗保健,就业和政府政策等各个领域的各种复杂的决策过程中受到各种复杂的决策。这些环境通常已经不透明他们影响的人并缺乏充分的残疾观点代表,它迅速采用人工智能(AI)技术来用于数据分析以告知决策,从而增加因不当或不公平的算法而造成的伤害风险增加。本文介绍了一个通过残疾镜头进行严格检查AI数据分析技术的框架,并研究了AI技术设计师选择的残疾定义如何影响其对残疾分析对象的影响。我们考虑了三种残疾的概念模型:医学模型,社会模型和关系模型;并展示在每个模型下设计的AI技术如何差异很大,以至于与彼此不相容和矛盾。通过讨论有关医疗保健和政府残疾福利中AI分析的常见用例,我们说明了技术设计过程中的特定考虑因素和决策点,这些因素和决策点影响了这些环境中的电力动态和包容性,并有助于确定其对边缘化或支持的方向。我们提出的框架可以作为对AI技术的深入批判性检查的基础,并开发用于残疾相关的AI分析的设计实践。
translated by 谷歌翻译
政策制定者今天对如何观看AI能力的更广泛的挑战,社会在那里依赖这些能力。本文调查AI功能并解决这个问题,在数字社会的政治安全背景下探索它。我们向帧引入机器影响矩阵并导航AI的对手应用,并进一步扩展信息管理的思想,以更好地了解当代AI系统部署作为复杂信息系统的一部分。提供全面审查网络社会和政治制度的人机互动,我们建议更好的信息系统监管和管理可以更好地抵消AI的风险,并利用这些系统提供给政策制定者和政治的新兴能力世界各地的机构。希望这篇悠久的论文将致力于对这些想法进行进一步辩论和讨论,并证明对管理AI未来的有用贡献。
translated by 谷歌翻译
虽然AI有利于人类,但如果没有适当发展,它也可能会损害人类。 HCI工作的重点是从与非AI计算系统的传统人类交互转换,以与AI系统交互。我们在HCI视角下开展了高级文献综述,对当前工作的整体分析。我们的审核和分析突出了AI技术引入的新变更以及HCI专业人员在AI系统开发中应用人以人为本的AI(HCAI)方法时,新挑战的新挑战。我们还确定了与AI系统人类互动的七个主要问题,其中HCI专业人员在开发非AI计算系统时没有遇到。为了进一步实现HCAI方法的实施,我们确定了与特定的HCAI驱动的设计目标相关的新的HCI机会,以指导HCI专业人员解决这些新问题。最后,我们对当前HCI方法的评估显示了这些方法支持开发AI系统的局限性。我们提出了可以帮助克服这些局限性的替代方法,并有效帮助HCI专业人员将HCAI方法应用于AI系统的发展。我们还为HCI专业人员提供战略建议,以有效影响利用HCAI方法的AI系统的发展,最终发展HCAI系统。
translated by 谷歌翻译
我们生活中情绪的重要性和普及性使得情感计算了一个非常重要和充满活力的工作。自动情感识别(AER)和情感分析的系统可以是巨大进展的促进者(例如,改善公共卫生和商业),而且还有巨大伤害的推动者(例如,用于抑制持不同政见者和操纵选民)。因此,情感计算社区必须积极地与其创作的道德后果搞。在本文中,我已经从AI伦理和情感认可文学中综合和组织信息,以提出与AER相关的五十个道德考虑因素。值得注意的是,纸张捏出了隐藏在如何框架的假设,并且在经常对数据,方法和评估的选择中的选择。特别关注在隐私和社会群体上的AER对AER的影响。沿途,关键建议是针对负责任的航空制作的。纸张的目标是促进和鼓励更加思考为什么自动化,如何自动化,以及如何在建立AER系统之前判断成功。此外,该纸张作为情感认可的有用介绍文件(补充调查文章)。
translated by 谷歌翻译
会话人工智能(Convai)系统最近吸引了许多学术和商业关注,在两端都取得了重大进展。但是,现有的工作讨论了如何在现实世界应用中开发和部署这些系统的社会益处,具有全面的案例研究和利弊分析。在本文中,我们简要介绍了社区对更好的康沃系统的进展,并反思现有技术如何帮助推进来自各种角度的社会良好举措,这些角度是社区中的共同知识。我们进一步讨论了Convai System以更好地帮助我们实现这些目标的挑战,并突出了其在现实世界中开发和部署所涉及的风险。
translated by 谷歌翻译