小组讨论的《冲动讲座》的语音手稿(德语 +英语)“梅机器(可以)想到?”在2022年5月28日在斯图加特的第102天天主教日。小组:Winfried Kretschmann(MDL,总理Baden-W \“ Urttemberg,Stuttgart),Ursula Nothehelle Wildfeuer(Freiburg),Michael Resch(Stuttgart),Karsten Wendland(Aalen)(Aalen)。 :Verena Neuhausen(Stuttgart)。
translated by 谷歌翻译
算法决策支持(AD)在社会各个领域的各种不同背景和结构中逐渐使用,影响了许多人的生活。它的使用引发了有关问责制,透明度和责任的问题。我们的文章旨在概述与组织环境中与广告,责任和决策相关的中心问题,并确定开放的问题和研究差距。此外,我们描述了一套准则和一种补充数字工具,以协助从业者在组织环境中介绍广告时绘制责任。 - 算法替代决策(算法决策支持,广告),越来越多地用于各种环境和结构,并影响了许多社会领域中许多人的生活。您的使用提出了一些问题,包括会计,透明度和责任。在以后,我们必须就有关广告,责任和决策 - 在组织环境中制定的最重要问题进行一个\“ Uberblick \”,并展示一些开放的问题和研究。实践是我们制定的指南,包括数字工具,这应该有助于帮助用户:尤其是在组织环境中使用广告时的位置和责任分配。
translated by 谷歌翻译
随着非二元人在西方社会的关注越来越多,性别对语言的策略开始摆脱二进制(仅女性/男性)性别概念。然而,到目前为止,几乎没有任何将这些身份考虑到机器翻译模型中的方法。缺乏对此类技术的社会技术意义的理解,可能会进一步再现压迫和贴标记的语言机制。在本文中,我们描述了关于性别对语言和语言技术研讨会的方法和结果,该研讨会由Tu Wien,St.P \“ Olten UAS,FH UAS,FH校园Wien和Vienna大学的十位研究人员领导和组织并于2021年秋季在维也纳举行。邀请了广泛的利益集团及其代表确保可以整体处理该主题。因此,我们的目的是包括翻译人员,机器翻译专家和非二元个人(如社区专家”)在平等的基础上。我们的分析表明,机器翻译中的性别需要高度的上下文敏感性,因此,这种技术的开发人员需要在仍在社会谈判中的过程中谨慎地定位自己,并且灵活的方法似乎最适合目前。然后,我们说明了从性别面对语言技术领域的结果遵循的步骤,以便技术发展可以充分地排列U P具有社会进步。 - [德语摘要由Arxiv Admins手动添加]
translated by 谷歌翻译
This research revisits the classic Turing test and compares recent large language models such as ChatGPT for their abilities to reproduce human-level comprehension and compelling text generation. Two task challenges -- summarization, and question answering -- prompt ChatGPT to produce original content (98-99%) from a single text entry and also sequential questions originally posed by Turing in 1950. The question of a machine fooling a human judge recedes in this work relative to the question of "how would one prove it?" The original contribution of the work presents a metric and simple grammatical set for understanding the writing mechanics of chatbots in evaluating their readability and statistical clarity, engagement, delivery, and overall quality. While Turing's original prose scores at least 14% below the machine-generated output, the question of whether an algorithm displays hints of Turing's truly original thoughts (the "Lovelace 2.0" test) remains unanswered and potentially unanswerable for now.
translated by 谷歌翻译
在这一荟萃术中,我们探索了道德人工智能(AI)设计实施的三个不同角度,包括哲学伦理观点,技术观点和通过政治镜头进行框架。我们的定性研究包括一篇文献综述,该综述通过讨论前面发表的对比度上下,自下而上和混合方法的价值和缺点,突出了这些角度的交叉引用。对该框架的小说贡献是政治角度,该角度构成了人工智能中的道德规范,要么由公司和政府决定,并通过政策或法律(来自顶部)强加于人,或者是人民要求的道德(从底部出现) ,以及自上而下,自下而上和混合技术,即AI在道德构造和考虑到其用户中的发展方式以及对世界的预期和意外后果和长期影响。作为自下而上的应用技术方法和AI伦理原则作为一种实际的自上而下方法,重点是强化学习。这项调查包括现实世界中的案例研究,以基于历史事实,当前的世界环境以及随之而来的现实,就AI的伦理和理论未来的思想实验进行了有关AI伦理和理论未来思想实验的哲学辩论。
translated by 谷歌翻译
1950年,Alan Cuting提出了一个模仿游戏作为机器是否智能的最终试验:机器可以模仿一个人类,这效果很好,以至于它与人类无法区分的问题。从那以后,创造了与人类智能相匹配的智慧,无意义或明确地是成千上万的研究人员,工程师和企业家的目标。人类人工智能(HLAI)的好处包括飙升的生产力,休闲增加,也许是最深刻的,更好地了解我们自己的思想。但并非所有类型的AI都是人类的。事实上,许多最强大的系统与人类截然不同。因此,在开发和部署HLAI的过度重点可以引导我们进入陷阱。随着机器成为人类劳动力的更好的替代品,工人失去了经济和政治议价权力,越来越依赖于控制该技术的人。相比之下,当AI专注于增强人类而不是模仿它们时,那​​么人类将保留强制以坚持创建的价值的份额。此外,增强创造了新的功能和新产品和服务,最终产生的价值远远超过仅仅是人类的艾。虽然这两种类型的AI可能是非常有益的,但目前有多余的自动化激励,而不是技术人员,商业管理人员和政策制定者之间的增强。
translated by 谷歌翻译
We argue that the attempt to build morality into machines is subject to what we call the Interpretation problem, whereby any rule we give the machine is open to infinite interpretation in ways that we might morally disapprove of, and that the interpretation problem in Artificial Intelligence is an illustration of Wittgenstein's general claim that no rule can contain the criteria for its own application. Using games as an example, we attempt to define the structure of normative spaces and argue that any rule-following within a normative space is guided by values that are external to that space and which cannot themselves be represented as rules. In light of this problem, we analyse the types of mistakes an artificial moral agent could make and we make suggestions about how to build morality into machines by getting them to interpret the rules we give in accordance with these external values, through explicit moral reasoning and the presence of structured values, the adjustment of causal power assigned to the agent and interaction with human agents, such that the machine develops a virtuous character and the impact of the interpretation problem is minimised.
translated by 谷歌翻译
过去二十年来看待人工智能的巨大进步。计算能力方面的指数增长使我们希望发展为机器人等人。问题是:我们在那里吗?也许不会。随着认知科学的整合,人工智能(AI)的“人为”特征可能很快被“聪明”所取代。这将有助于开发更强大的AI系统,并同时让我们更好地了解人脑如何运作。我们讨论弥合这两个领域的各种可能性和挑战以及如何互相受益。我们认为,由于开发这样的先进系统需要更好地了解人类大脑的可能性,AI接管人类文明的可能性很低。
translated by 谷歌翻译
像许多研究社区一样,民族方法论家和对话分析师已经开始陷入 - 又一次 - 在人工智能(AI)激增的普遍景象中。受到越来越多的民族方法学研究人员(EM)和对话分析(CA)传统的讨论的启发,我开始思考EM和EM的对话分析可能正在做的事情,甚至可能在与人工智能研究领域。因此,这篇文章是关于可能遇到的纪律和概念性问题,并且 - 我认为 - 可能需要解决与AI研究及其分支机构的互动。尽管我主要关注要注意的事情以及彻底的危险,但后来我们可以考虑一些机会。在整个过程中,我将继续使用“我们”来谈论EM&CA研究人员;但这确实是为了方便的 - 我不想为我们复杂的研究社区进行口语。以下所有内容都应从我的特定研究史,角度等中释放出来,并被视为(希望)作为邀请EM和CA研究人员在技术和AI方面进行进一步讨论的邀请。
translated by 谷歌翻译
我们能否定义“创造性”的含义,如果是这样,我们的定义能否将人工智能(AI)系统推向与人类努力无法区分的创造力的壮举?从技术和社会角度考虑了这个混合问题。从探索我们与艺术品的真实性相关的价值开始,该文章考虑了人工智能检测著名绘画的伪造的能力,并以某种方式揭示了艺术品的怪癖。最后,我们考虑了不断发展的技术能力是否可以修改艺术,艺术家和市场之间的传统关系。
translated by 谷歌翻译
大型语言模型(LLMS)具有变革性。它们是预先训练的基础模型,可以通过微调来适应许多不同的自然语言任务,以前每个任务都需要单独的网络模型。这是接近人类语言的非凡多功能性的一步。 GPT-3和最近的LAMDA可以与人类进行对话,并在最少的启动之后与许多例子进行许多主题。但是,关于这些LLM是否了解他们在说什么或表现出智力迹象的反应。在与LLM的三次访谈中得出截然不同的结论中,这种较高的差异显示出来。发现了一种新的可能性,可以解释这种分歧。实际上,LLM中似乎是智慧的是反映面试官智力的镜子,这是一个显着的转折,可以被视为反向图灵测试。如果是这样,那么通过研究访谈,我们可能会更多地了解面试官的智力和信念,而不是LLM的智能。
translated by 谷歌翻译
人工智能的指数发展和应用引发了一个前所未有的全球对潜在的社会和道德问题的关注。来自不同行业,国际基金会,政府组织和标准机构的利益攸关方迅速进入,并创造了各种伦理宗旨,试图规范AI。主要问题是这些原则的巨大同质性和假定的同意态度。虽然某些道德教义是真实的,如着名的康妮故事,渴望普遍,但它们在实践中并不普遍。事实上,道德多元化更加关于差异,以提出的相关问题,而不是普通问题的不同答案。当人们遵守不同的道德教义时,他们往往不同意一个问题的方法。即使来自不同文化的人遇到了一系列共同原则,它也不一定意味着它们与对这些概念的相同理解以及他们所占有的东西。为了更好地了解AI的哲学根源和文化背景,我们建议分析和比较中国新一代人工智能治理专业委员会(CNNGAIGPC)的道德原则,以及欧洲高级阐述的原则AI(Hlegai)的专家组。中国和欧盟在文化遗产中具有很大不同的政治制度和分歧。在我们的分析中,我们希望强调似乎相似的原则实际上可能具有不同的含义,从不同的方法中衍生出来并反映不同的目标。
translated by 谷歌翻译
The field of artificial intelligence (AI), regarded as one of the most enigmatic areas of science, has witnessed exponential growth in the past decade including a remarkably wide array of applications, having already impacted our everyday lives. Advances in computing power and the design of sophisticated AI algorithms have enabled computers to outperform humans in a variety of tasks, especially in the areas of computer vision and speech recognition. Yet, AI's path has never been smooth, having essentially fallen apart twice in its lifetime ('winters' of AI), both after periods of popular success ('summers' of AI). We provide a brief rundown of AI's evolution over the course of decades, highlighting its crucial moments and major turning points from inception to the present. In doing so, we attempt to learn, anticipate the future, and discuss what steps may be taken to prevent another 'winter'.
translated by 谷歌翻译
We are currently unable to specify human goals and societal values in a way that reliably directs AI behavior. Law-making and legal interpretation form a computational engine that converts opaque human values into legible directives. "Law Informs Code" is the research agenda capturing complex computational legal processes, and embedding them in AI. Similar to how parties to a legal contract cannot foresee every potential contingency of their future relationship, and legislators cannot predict all the circumstances under which their proposed bills will be applied, we cannot ex ante specify rules that provably direct good AI behavior. Legal theory and practice have developed arrays of tools to address these specification problems. For instance, legal standards allow humans to develop shared understandings and adapt them to novel situations. In contrast to more prosaic uses of the law (e.g., as a deterrent of bad behavior through the threat of sanction), leveraged as an expression of how humans communicate their goals, and what society values, Law Informs Code. We describe how data generated by legal processes (methods of law-making, statutory interpretation, contract drafting, applications of legal standards, legal reasoning, etc.) can facilitate the robust specification of inherently vague human goals. This increases human-AI alignment and the local usefulness of AI. Toward society-AI alignment, we present a framework for understanding law as the applied philosophy of multi-agent alignment. Although law is partly a reflection of historically contingent political power - and thus not a perfect aggregation of citizen preferences - if properly parsed, its distillation offers the most legitimate computational comprehension of societal values available. If law eventually informs powerful AI, engaging in the deliberative political process to improve law takes on even more meaning.
translated by 谷歌翻译
\ EMPH {人工智能}(AI)系统越来越多地参与影响我们生活的决策,确保自动决策是公平的,道德已经成为最优先事项。直观地,我们觉得类似人的决定,人工代理人的判断应该必然地以一些道德原则为基础。然而,如果有关决定所基础的所有有关因素的全部信息,可以真正伦理(人类或人为)和公平(根据任何道德理论)和公平(根据公平的任何概念)的规定在决策时。这提出了两个问题:(1)在设置中,我们依赖使用通过监督学习获得的分类器的AI系统,存在一些感应/泛化,即使在学习期间也可能不存在一些相关属性。 (2)根据游戏揭示任何 - 无论是道德的纯策略都不可避免地易于剥削,建模这些决定。此外,在许多游戏中,只能通过使用混合策略来获得纳什均衡,即实现数学上最佳结果,决定必须随机化。在本文中,我们认为,在监督学习设置中,存在至少以及确定性分类器的随机分类器,因此在许多情况下可能是最佳选择。我们支持我们的理论效果,具有一个实证研究,表明对随机人工决策者的积极社会态度,并讨论了与使用与当前的AI政策和标准化举措相关的随机分类器相关的一些政策和实施问题。
translated by 谷歌翻译
如果未来的AI系统在新的情况下是可靠的安全性,那么他们将需要纳入指导它们的一般原则,以便强烈地认识到哪些结果和行为将是有害的。这样的原则可能需要得到约束力的监管制度的支持,该法规需要广泛接受的基本原则。它们还应该足够具体用于技术实施。本文从法律中汲取灵感,解释了负面的人权如何履行此类原则的作用,并为国际监管制度以及为未来的AI系统建立技术安全限制的基础。
translated by 谷歌翻译
值得信赖的人工智能(AI)已成为一个重要的话题,因为在AI系统及其创造者中的信任已经丢失。研究人员,公司和政府具有远离技术开发,部署和监督的边缘化群体的长期和痛苦的历史。结果,这些技术对小群体的有用甚至有害。我们争辩说,渴望信任的任何AI开发,部署和监测框架必须纳入女权主义,非剥削参与性设计原则和强大,外部和持续监测和测试。我们还向考虑到透明度,公平性和问责制的可靠性方面的重要性,特别是考虑对任何值得信赖的AI系统的核心价值观的正义和转移权力。创建值得信赖的AI通过资金,支持和赋予Grassroots组织,如AI Queer等基层组织开始,因此AI领域具有多样性和纳入可信和有效地发展的可信赖AI。我们利用AI的专家知识Queer通过其多年的工作和宣传来讨论以及如何以及如何在数据集和AI系统中使用如何以及如何在数据集和AI系统中使用以及沿着这些线路的危害。基于此,我们分享了对AI的性别方法,进一步提出了Queer认识论并分析它可以带来AI的好处。我们还讨论了如何在愿景中讨论如何使用此Queer认识论,提出与AI和性别多样性和隐私和酷儿数据保护相关的框架。
translated by 谷歌翻译
在某些情况下,没有专业的人类接触。因此,一个人的问题和恐惧仍然存在。载人的火星飞行肯定是这样的情况。表现出同理心并协助宇航员的语音助手可能是解决方案。在Space Thea项目中,使用Google Assistant和DialogFlow Essentials开发了具有此类功能的原型。语音助手具有基于功能智力,诚意,创造力和情商等特征的个性。它在七种不同的场景中证明了自己,旨在代表宇航员的日常生活,解决了运营危机和人类问题。本文详细介绍了七个方案,并列出了语音助手的技术和概念基础。最后,陈述了最重要的结果,并总结了章节。
translated by 谷歌翻译
随着全球人口越来越多的人口驱动世界各地的快速城市化,有很大的需要蓄意审议值得生活的未来。特别是,随着现代智能城市拥抱越来越多的数据驱动的人工智能服务,值得记住技术可以促进繁荣,福祉,城市居住能力或社会正义,而是只有当它具有正确的模拟补充时(例如竭尽全力,成熟机构,负责任治理);这些智能城市的最终目标是促进和提高人类福利和社会繁荣。研究人员表明,各种技术商业模式和特征实际上可以有助于极端主义,极化,错误信息和互联网成瘾等社会问题。鉴于这些观察,解决了确保了诸如未来城市技术基岩的安全,安全和可解释性的哲学和道德问题,以为未来城市的技术基岩具有至关重要的。在全球范围内,有能够更加人性化和以人为本的技术。在本文中,我们分析和探索了在人以人为本的应用中成功部署AI的安全,鲁棒性,可解释性和道德(数据和算法)挑战的关键挑战,特别强调这些概念/挑战的融合。我们对这些关键挑战提供了对现有文献的详细审查,并分析了这些挑战中的一个可能导致他人的挑战方式或帮助解决其他挑战。本文还建议了这些域的当前限制,陷阱和未来研究方向,以及如何填补当前的空白并导致更好的解决方案。我们认为,这种严谨的分析将为域名的未来研究提供基准。
translated by 谷歌翻译
在本文中,我们认为AI伦理必须超出基于比赛的代表和偏见的概念,以及那些探讨影响这些系统的设计,开发和部署的更深层次关系的概念。最近关于AI系统偏差的道德考虑的许多讨论都以种族偏见为中心。我们争辩说,AI中的抗粘接需要更多的检查本体的内部空间,为设计,开发和部署AI系统提供基础。从社会文化背景的角度来看,从社会文化背景的角度来看这个争论意味着什么,其中开发,开发和部署并专注于与抗黑色种族主义的交叉口(防粘土)。要将这些多个视角展示在一起并展示面对去偏置的尝试中的防粘性的一个例子,我们讨论了审计现有开源语义网络(ConceptNet)的结果。我们使用本讨论在AI系统的设计,开发和部署方面进一步上下文中的抗粘接性,并建议在试图打击AI系统中的防粘性时可能会询问问题。
translated by 谷歌翻译