人类机器人的互动会影响人类,这通常会改变行为。本文探讨了这种改变行为的外部性 - 偏好变化。它扩展了先前关于AI系统偏好变化的工作。具体而言,本文将探讨机器人的适应性行为如何通过社交互动来发挥影响力,从而改变用户的喜好。它认为,与其他普遍技术相比,机器人独特影响行为的能力,这一风险很高。因此,有说服力的机器人会冒着操纵的风险。
translated by 谷歌翻译
在过去的几年中,围绕种族类人体机器人的有问题实践的讨论已经上升。为了彻底理解机器人在人类机器人互动(HRI)社区中如何理解机器人的“性别” - 即如何被操纵,在哪些环境中以及其对人们的看法和人们产生哪些影响的影响,为基础建立基础。与机器人的互动 - 我们对文献进行了范围的评论。我们确定了553篇与我们从5个不同数据库中检索的评论相关的论文。审查论文的最终样本包括2005年至2021年之间的35篇论文,其中涉及3902名参与者。在本文中,我们通过报告有关其性别的目标和假设的信息(即操纵性别的定义和理由),对机器人的“性别”(即性别提示和操纵检查),对性别的定义和理由进行彻底总结这些论文。 (例如,参与者的人口统计学,受雇的机器人)及其结果(即主要和互动效应)。该评论表明,机器人的“性别”不会影响HRI的关键构建,例如可爱和接受,而是对刻板印象产生最强烈的影响。我们利用社会机器人技术和性别研究中的不同认识论背景来提供有关审查结果的全面跨学科观点,并提出了在HRI领域前进的方法。
translated by 谷歌翻译
在这里,我询问我们可以了解如何了解性别如何影响人们如何与机器人互动。我回顾了2018年或更早发布的46个社会机器人的实证研究,报告了其参与者的性别,机器人的感知或预期性别,或两者兼而有之,并对参与者或机器人性别进行了一些分析。从这些研究中,我发现机器人默认被认为是男性,机器人吸收了人类的性别刻板印象,并且男性倾向于比女性更多地与机器人互动。我强调了关于年轻参与者中这种性别影响如何有何不同的开放问题,以及是否应该寻求将机器人的性别与参与者的性别相匹配,以确保积极的互动结果。我的结论是建议未来的研究应:包括性别多样化的参与者池,包括非二进制参与者,依靠自我认同来辨别性别而不是研究人员的感知,控制已知的性别协变量,测试有关性​​别的不同研究结果,并测试使用的机器人是否被参与者视为性别。我包括一个附录,其中包含46篇论文中每一篇与性别相关的发现的叙述摘要,以帮助未来的文学评论。
translated by 谷歌翻译
体育活动对于健康和福祉很重要,但只有很少的人满足世界卫生组织的体育活动标准。机器人运动教练的开发可以帮助增加训练的可及性和动力。用户的接受和信任对于成功实施这种辅助机器人至关重要。这可能会受到机器人系统和机器人性能的透明度的影响,尤其是其失败。该研究对与任务,人,机器人和相互作用(T-HRI)相关的透明度水平进行了初步研究,并进行了相应调整的机器人行为。在一部分实验中,机器人性能失败允许分析与故障有关的T-HRI水平的影响。在机器人性能中遇到失败的参与者表现出比没有经历这种失败的人的接受程度和信任水平要低。此外,T-HRI级别和参与者群体之间的接受度量存在差异,这暗示了未来研究的几个方向。
translated by 谷歌翻译
这项研究表明,预期和实际相互作用如何影响老年人的SAR量化量化。这项研究包括两个部分:在线调查,可通过视频观看SAR和接受研究的验收研究来探索预期的交互作用,其中老年人与机器人进行了互动。这项研究的两个部分均在Gymmy的帮助下完成,这是一种机器人系统,我们的实验室开发了用于培训老年人身体和认知活动的培训。两个研究部分都表现出相似的用户响应,表明用户可以通过预期的互动来预测SAR的接受。索引术语:衰老,人类机器人互动,老年人,质量评估,社会辅助机器人,技术接受,技术恐惧症,信任,用户体验。
translated by 谷歌翻译
在人类居住的环境中使用机器人的挑战是设计对人类互动引起的扰动且鲁棒的设计行为。我们的想法是用内在动机(IM)拟订机器人,以便它可以处理新的情况,并作为人类的真正社交,因此对人类互动伙伴感兴趣。人机互动(HRI)实验主要关注脚本或远程机器人,这是模拟特性,如IM来控制孤立的行为因素。本文介绍了一个“机器人学家”的研究设计,允许比较自主生成的行为彼此,而且首次评估机器人中基于IM的生成行为的人类感知。我们在受试者内部用户学习(n = 24),参与者与具有不同行为制度的完全自主的Sphero BB8机器人互动:一个实现自适应,本质上动机的行为,另一个是反应性的,但不是自适应。机器人及其行为是故意最小的,以专注于IM诱导的效果。与反应基线行为相比,相互作用后问卷的定量分析表明对尺寸“温暖”的显着提高。温暖被认为是人类社会认知中社会态度形成的主要维度。一种被认为是温暖(友好,值得信赖的)的人体验更积极的社交互动。
translated by 谷歌翻译
最近十年表明,人们对机器人作为福祉教练的兴趣越来越大。但是,尚未提出针对机器人设计作为促进心理健康的教练的凝聚力和全面的准则。本文详细介绍了基于基于扎根理论方法的定性荟萃分析的设计和道德建议,该方法是通过三项以用户为中心的涉及机器人福祉教练的三个不同的以用户为中心进行的,即:(1)与参与性设计研究一起进行的。 11名参与者由两位潜在用户组成,他们与人类教练一起参加了简短的专注于解决方案的实践研究,以及不同学科的教练,(2)半结构化的个人访谈数据,这些数据来自20名参加积极心理学干预研究的参与者借助机器人福祉教练胡椒,(3)与3名积极心理学研究的参与者以及2名相关的福祉教练进行了一项参与式设计研究。在进行主题分析和定性荟萃分析之后,我们将收集到收敛性和不同主题的数据整理在一起,并从这些结果中提炼了一套设计准则和道德考虑。我们的发现可以在设计机器人心理福祉教练时考虑到关键方面的关键方面。
translated by 谷歌翻译
辅助机器人技术在用户介绍之前对所有功能进行了预编程。相反,代理商在现场学习上进行补充是更现实的。学习用户和环境特殊性的机会特别有助于护理机器人,这些机器人有助于在住宅或疗养院环境中进行个性化的护理人员活动。许多辅助机器人的复杂性从室内到胡椒,已经在家里进行了一些学习,用户可以观察到。我们对目睹这一学习如何影响用户缺乏了解。因此,我们建议评估最终用户对体现机器人的概念的态度,这些概念与能够完全掌握的机器人相比,在家庭中进行了一些学习。在这项虚拟的,受试者之间的研究中,我们从疗养院招募了最终用户(护理人员和护理人员),并研究了三个不同领域的用户信任:导航,操纵和准备。在第一项研究中,我们将代理学习是确定信任的关键因素,我们提出了第二项研究,以探索如何调节该信任。第二次面对面的研究调查了道歉,机器人失败的解释以及改善对具体学习机器人的信任方面的学习透明度的有效性。
translated by 谷歌翻译
随着机器人被引入越来越复杂的场景,随着各个群体,人民和实体开始与部署的机器人互动,信任的问题变得越来越复杂。这篇简短的论文探讨了一些机器人的信任可能在一个(或更多)实体或团体之间发生冲突的情况。我们还提出了有关通过可能的道歉来修复信任的想法的场景。
translated by 谷歌翻译
Intelligent agents have great potential as facilitators of group conversation among older adults. However, little is known about how to design agents for this purpose and user group, especially in terms of agent embodiment. To this end, we conducted a mixed methods study of older adults' reactions to voice and body in a group conversation facilitation agent. Two agent forms with the same underlying artificial intelligence (AI) and voice system were compared: a humanoid robot and a voice assistant. One preliminary study (total n=24) and one experimental study comparing voice and body morphologies (n=36) were conducted with older adults and an experienced human facilitator. Findings revealed that the artificiality of the agent, regardless of its form, was beneficial for the socially uncomfortable task of conversation facilitation. Even so, talkative personality types had a poorer experience with the "bodied" robot version. Design implications and supplementary reactions, especially to agent voice, are also discussed.
translated by 谷歌翻译
行为互联网(IOB)将人类行为放在工程智能连接系统的核心。 IOB将数字世界与人类行为联系起来建立人类驱动的设计,开发和适应过程。本文根据与软件工程师,人机互动科学家,社会科学家和认知科学社区互动的集体努力来定义IOB模型的新颖概念。基于IOB的模型,基于探索性研究,综合最先进的分析和专家访谈。真正的行业4.0制造基础设施的架构有助于解释IOB模型及其应用。概念模型用于成功为Uffizi画廊,意大利佛罗伦萨的人群监测和队列管理系统成功实施社会技术基础设施。该实验始于2016年秋季,并在2018年秋季进行运营,使用了一种数据驱动方法来使用实时感官数据来提供系统。它还在游客的移动行为上注入了预测模型。该系统的主要目标是捕捉人类行为,模型,并建立一种考虑变化,实时适应变化的机制,并不断从重复行为中学习。除了概念模型和现实生活评价外,本文还提供专家的建议,并为未来几年成为IOB成为一个重要的技术进步的未来指导。
translated by 谷歌翻译
在许多情况下,有许多例子,可以访问改进的人类行为和认知模型,从而创建了可以更好地与人类互动的机器人,并且在道路车辆自动化中,这是一个快速增长的研究领域。因此,人类机器人相互作用(HRI)为人类行为建模提供了重要的应用设置 - 但是鉴于人类行为的严重复杂性,这些模型需要多么完整和准确?在这里,我们概述了一些可能思考这个问题的方法,从建模者需要保持正确的目标的建议开始:在安全,绩效和人类满意方面,成功的人类机器人互动。建模完整性和准确性的努力应集中在人类行为的那些方面,而互动成功最敏感。我们强调,确定这些方面是一个困难的科学目标本身是一个困难的科学目标,在每个给定的HRI背景下都不同。我们建议并举例说明一种在此问题上制定先验假设的方法,如果机器人将参与目前在人类之间发生的互动(例如自动驾驶中)。我们的观点还强调了对HRI中人类行为模型过度依赖的一些可能风险,以及如何减轻这些风险。
translated by 谷歌翻译
本文介绍了“多样性意识”机器人技术的概念,并讨论了开发计算模型以嵌入具有多样性意识的机器人的必要性:也就是说,能够适应和重新配置其行为以识别,尊重和重视独特性的机器人他们与他们互动以促进包容性的人,无论其年龄,种族,性别,认知或身体能力等。最后,本文从以前具有文化能力的机器人的经验开始,讨论了基于本体和贝叶斯网络的技术解决方案。
translated by 谷歌翻译
触摸是人类之间互动和交流的关键部分,但在人类机器人的互动中仍然很少探索。在这项工作中,要求参与者接近并触摸手上的人形机器人(NAO -26名参与者; Pepper -28名参与者),以引起注意。我们为机器人设计了反应行为,该机器人由四种不同的手臂运动组合组成,而被触摸的手向前或向后移动,另一只手向前移动或保持到位,同时向后倾斜,然后看参与者。我们研究了机器人的哪种反应发现最合适的是他们选择的原因。对于两个机器人,被触摸的机器人手的首选反应正在向后移动。另一方面,根本没有任何动作对胡椒来说最自然,而NAO则是向前移动的。发现了参与者人格特征的焦虑量表与机器人反应的主动/侵略性的被动性分量表之间的相关性。大多数参与者注意到倾斜的后背并积极地对其进行了评分。一些参与者在非结构化评论中对参与者进行了积极评论。我们还分析了参与者在哪里以及如何自发接触机器人手上的地方。总而言之,这里设计的触摸反应行为是一个很好的候选人,可以更普遍地在社交机器人中部署,可能包括在拥挤的环境中偶然触摸。机器人尺寸构成了一个重要因素,该因素塑造了如何感知机器人反应。
translated by 谷歌翻译
Humans have internal models of robots (like their physical capabilities), the world (like what will happen next), and their tasks (like a preferred goal). However, human internal models are not always perfect: for example, it is easy to underestimate a robot's inertia. Nevertheless, these models change and improve over time as humans gather more experience. Interestingly, robot actions influence what this experience is, and therefore influence how people's internal models change. In this work we take a step towards enabling robots to understand the influence they have, leverage it to better assist people, and help human models more quickly align with reality. Our key idea is to model the human's learning as a nonlinear dynamical system which evolves the human's internal model given new observations. We formulate a novel optimization problem to infer the human's learning dynamics from demonstrations that naturally exhibit human learning. We then formalize how robots can influence human learning by embedding the human's learning dynamics model into the robot planning problem. Although our formulations provide concrete problem statements, they are intractable to solve in full generality. We contribute an approximation that sacrifices the complexity of the human internal models we can represent, but enables robots to learn the nonlinear dynamics of these internal models. We evaluate our inference and planning methods in a suite of simulated environments and an in-person user study, where a 7DOF robotic arm teaches participants to be better teleoperators. While influencing human learning remains an open problem, our results demonstrate that this influence is possible and can be helpful in real human-robot interaction.
translated by 谷歌翻译
In this chapter, we review and discuss the transformation of AI technology in HCI/UX work and assess how AI technology will change how we do the work. We first discuss how AI can be used to enhance the result of user research and design evaluation. We then discuss how AI technology can be used to enhance HCI/UX design. Finally, we discuss how AI-enabled capabilities can improve UX when users interact with computing systems, applications, and services.
translated by 谷歌翻译
Taking advice from others requires confidence in their competence. This is important for interaction with peers, but also for collaboration with social robots and artificial agents. Nonetheless, we do not always have access to information about others' competence or performance. In these uncertain environments, do our prior beliefs about the nature and the competence of our interacting partners modulate our willingness to rely on their judgments? In a joint perceptual decision making task, participants made perceptual judgments and observed the simulated estimates of either a human participant, a social humanoid robot or a computer. Then they could modify their estimates based on this feedback. Results show participants' belief about the nature of their partner biased their compliance with its judgments: participants were more influenced by the social robot than human and computer partners. This difference emerged strongly at the very beginning of the task and decreased with repeated exposure to empirical feedback on the partner's responses, disclosing the role of prior beliefs in social influence under uncertainty. Furthermore, the results of our functional task suggest an important difference between human-human and human-robot interaction in the absence of overt socially relevant signal from the partner: the former is modulated by social normative mechanisms, whereas the latter is guided by purely informational mechanisms linked to the perceived competence of the partner.
translated by 谷歌翻译
框架已开始出现,以对提供沉浸式,直观的接口提供沉浸式,直观的界面的虚拟,增强和混合现实(VAM)技术来促进人机互动。然而,这些框架未能捕获VAM-HRI的生长子场的关键特性,并且由于连续尺度而难以持续应用。这项工作通过创建用于组织VAM-HRI系统(TOKC)的关键特征来构建这些先前的框架。 Tokcs离散地分离出现在先前作品中使用的连续尺度,以获得更一致的分类,并增加与机器人的内部模型,锚点位置,可操纵性和系统的软件相关的额外特征。为了展示工具的能力,TOKCS应用于来自第四届VAM-HRI车间的十篇论文,并检查了关键趋势和外卖。这些趋势突出了TOKCS的表现能力,同时还帮助框架更新的趋势和VAM-HRI研究的未来工作建议。
translated by 谷歌翻译
聊天机器人在商业和科学环境中越来越普遍。他们帮助客户抱怨产品或服务或支持他们找到最佳旅行交易。其他机器人提供心理健康支持或帮助预订医疗预约。本文认为,可以洞悉用户的语言意识形态及其融洽的期望,可用于告知受众群体的语言和互动模式,并确保公平地访问机器人提供的服务。该论点的基础是三种数据的基础:与聊天机器人相互交互,促进健康约会预订,用户对其交互的内省评论以及用户的定性调查评论在与预订机器人交战后。最后,我将定义对话式AI的受众设计,并讨论如何以用户为中心的聊天机器人互动和社会语言知识的理论方法(例如融洽的理论管理)来支持受众设计。
translated by 谷歌翻译
机器学习显着增强了机器人的能力,使他们能够在人类环境中执行广泛的任务并适应我们不确定的现实世界。机器学习各个领域的最新作品强调了公平性的重要性,以确保这些算法不会再现人类的偏见并导致歧视性结果。随着机器人学习系统在我们的日常生活中越来越多地执行越来越多的任务,了解这种偏见的影响至关重要,以防止对某些人群的意外行为。在这项工作中,我们从跨学科的角度进行了关于机器人学习公平性的首次调查,该研究跨越了技术,道德和法律挑战。我们提出了偏见来源的分类法和由此产生的歧视类型。使用来自不同机器人学习域的示例,我们研究了不公平结果和减轻策略的场景。我们通过涵盖不同的公平定义,道德和法律考虑以及公平机器人学习的方法来介绍该领域的早期进步。通过这项工作,我们旨在为公平机器人学习中的开创性发展铺平道路。
translated by 谷歌翻译