在本文中,我们研究了在共享物理空间中运行时的影响界面和反馈对人机信任级别的反馈。我们使用的任务是为室内环境中的机器人指定“无-Go”区域。我们评估三种界面(物理,AR和基于地图)和四个反馈机制(无反馈,机器人在空间,AR“栅栏”和地图上标记的区域)。我们的评估看起来可用和信任。具体而言,如果参与者信任机器人“知道”在禁止地区是禁止机器人避免该区域的能力的地方。我们使用自我报告和间接的信任措施和可用性。我们的主要研究结果是:1)接口和反馈确实影响信任水平;2)参与者在很大程度上优选的混合界面反馈对,其中界面的模态与反馈不同。
translated by 谷歌翻译
人类可以利用身体互动来教机器人武器。当人类的动力学通过示范引导机器人时,机器人学习了所需的任务。尽管先前的工作重点是机器人学习方式,但对于人类老师来说,了解其机器人正在学习的内容同样重要。视觉显示可以传达此信息;但是,我们假设仅视觉反馈就错过了人与机器人之间的物理联系。在本文中,我们介绍了一类新颖的软触觉显示器,这些显示器包裹在机器人臂上,添加信号而不会影响相互作用。我们首先设计一个气动驱动阵列,该阵列在安装方面保持灵活。然后,我们开发了这种包裹的触觉显示的单一和多维版本,并在心理物理测试和机器人学习过程中探索了人类对渲染信号的看法。我们最终发现,人们以11.4%的韦伯(Weber)分数准确区分单维反馈,并以94.5%的精度确定多维反馈。当物理教授机器人臂时,人类利用单维反馈来提供比视觉反馈更好的演示:我们包装的触觉显示会降低教学时间,同时提高演示质量。这种改进取决于包裹的触觉显示的位置和分布。您可以在此处查看我们的设备和实验的视频:https://youtu.be/ypcmgeqsjdm
translated by 谷歌翻译
人类和机器人之间的物理互动可以帮助机器人学习执行复杂的任务。机器人臂通过观察人类在整个任务中指导它的方式来获得信息。虽然先前的作品专注于机器人如何学习,但它同样重要的是,这种学习对人类教师透明。显示机器人不确定性的视觉显示可能会传达此信息;然而,我们假设视觉反馈机制错过了人类和机器人之间的物理连接。在这项工作中,我们提出了一种柔软的触觉显示,它缠绕在机器人臂的表面并符合机器人臂的表面,在现有的触点点添加触觉信号,而不会显着影响相互作用。我们展示了软致动力如何产生突出的触觉信号,同时仍然允许在设备安装中的灵活性。使用心理物理学实验,我们表明用户可以准确地区分包裹展示的通胀水平,平均韦伯分数为11.4%。当我们在机器人操纵器的ARM周围放置包裹的显示器时,用户能够在样本机器人学习任务中解释和利用触觉信号,从而改善机器人需要更多培训的区域的识别,并使用户能够提供更好的演示。查看我们的设备和用户学习的视频:https://youtu.be/tx-2tqeb9nw
translated by 谷歌翻译
这项研究提出了新的策略,以研究信任和群体动态在儿童机器人相互作用中的相互影响。我们使用类人机器人ICUB实施了类似游戏的实验活动,并设计了一份问卷来评估孩子如何看待这种相互作用。我们还旨在验证传感器,设置和任务是否适合研究此类方面。问卷的结果表明,年轻人将ICUB视为朋友,通常以积极的方式将ICUB视为朋友。其他初步结果表明,通常,孩子在活动期间信任ICUB,并且在其错误后,他们试图用诸如:“不用担心ICUB,我们原谅您”之类的句子来放心。此外,对机器人在小组认知活动中的信任似乎会根据性别而发生变化:在机器人连续两个错误之后,女孩倾向于比男孩更信任ICUB。最后,跨游戏计算的点和自我报告的量表之间的不同年龄组之间没有明显的差异。我们提出的工具适合研究不同年龄段的人类机器人相互作用(HRI)的信任,并且似乎适合理解小组相互作用的信任机制。
translated by 谷歌翻译
当人类共同完成联合任务时,每个人都会建立一个情况的内部模型以及如何发展。有效的协作取决于这些单个模型如何重叠以在团队成员之间形成共同的心理模型,这对于人类机器人团队中的协作流程很重要。准确的共享心理模型的发展和维护需要个人意图的双向交流以及解释其他团队成员意图的能力。为了实现有效的人类机器人协作,本文介绍了人类机器人团队合作中新型联合行动框架的设计和实施,利用增强现实(AR)技术和用户眼目光来实现意图的双向交流。我们通过与37名参与者的用户研究测试了我们的新框架,发现我们的系统提高了任务效率,信任和任务流利。因此,使用AR和眼睛凝视使双向交流是一种有前途的平均值,可以改善影响人与机器人之间协作的核心组成部分。
translated by 谷歌翻译
Intelligent agents have great potential as facilitators of group conversation among older adults. However, little is known about how to design agents for this purpose and user group, especially in terms of agent embodiment. To this end, we conducted a mixed methods study of older adults' reactions to voice and body in a group conversation facilitation agent. Two agent forms with the same underlying artificial intelligence (AI) and voice system were compared: a humanoid robot and a voice assistant. One preliminary study (total n=24) and one experimental study comparing voice and body morphologies (n=36) were conducted with older adults and an experienced human facilitator. Findings revealed that the artificiality of the agent, regardless of its form, was beneficial for the socially uncomfortable task of conversation facilitation. Even so, talkative personality types had a poorer experience with the "bodied" robot version. Design implications and supplementary reactions, especially to agent voice, are also discussed.
translated by 谷歌翻译
Taking advice from others requires confidence in their competence. This is important for interaction with peers, but also for collaboration with social robots and artificial agents. Nonetheless, we do not always have access to information about others' competence or performance. In these uncertain environments, do our prior beliefs about the nature and the competence of our interacting partners modulate our willingness to rely on their judgments? In a joint perceptual decision making task, participants made perceptual judgments and observed the simulated estimates of either a human participant, a social humanoid robot or a computer. Then they could modify their estimates based on this feedback. Results show participants' belief about the nature of their partner biased their compliance with its judgments: participants were more influenced by the social robot than human and computer partners. This difference emerged strongly at the very beginning of the task and decreased with repeated exposure to empirical feedback on the partner's responses, disclosing the role of prior beliefs in social influence under uncertainty. Furthermore, the results of our functional task suggest an important difference between human-human and human-robot interaction in the absence of overt socially relevant signal from the partner: the former is modulated by social normative mechanisms, whereas the latter is guided by purely informational mechanisms linked to the perceived competence of the partner.
translated by 谷歌翻译
最后,这项工作将包括对解释的上下文形式的调查。在这项研究中,我们将包括一个时间障碍的方案,其中将测试不同水平的理解水平,以使我们能够评估合适且可理解的解释。为此,我们提出了不同的理解水平(lou)。用户研究将旨在比较不同的LOU在不同的互动环境中。将研究同时医院环境的用户研究。
translated by 谷歌翻译
在过去的几年中,围绕种族类人体机器人的有问题实践的讨论已经上升。为了彻底理解机器人在人类机器人互动(HRI)社区中如何理解机器人的“性别” - 即如何被操纵,在哪些环境中以及其对人们的看法和人们产生哪些影响的影响,为基础建立基础。与机器人的互动 - 我们对文献进行了范围的评论。我们确定了553篇与我们从5个不同数据库中检索的评论相关的论文。审查论文的最终样本包括2005年至2021年之间的35篇论文,其中涉及3902名参与者。在本文中,我们通过报告有关其性别的目标和假设的信息(即操纵性别的定义和理由),对机器人的“性别”(即性别提示和操纵检查),对性别的定义和理由进行彻底总结这些论文。 (例如,参与者的人口统计学,受雇的机器人)及其结果(即主要和互动效应)。该评论表明,机器人的“性别”不会影响HRI的关键构建,例如可爱和接受,而是对刻板印象产生最强烈的影响。我们利用社会机器人技术和性别研究中的不同认识论背景来提供有关审查结果的全面跨学科观点,并提出了在HRI领域前进的方法。
translated by 谷歌翻译
在这里,我询问我们可以了解如何了解性别如何影响人们如何与机器人互动。我回顾了2018年或更早发布的46个社会机器人的实证研究,报告了其参与者的性别,机器人的感知或预期性别,或两者兼而有之,并对参与者或机器人性别进行了一些分析。从这些研究中,我发现机器人默认被认为是男性,机器人吸收了人类的性别刻板印象,并且男性倾向于比女性更多地与机器人互动。我强调了关于年轻参与者中这种性别影响如何有何不同的开放问题,以及是否应该寻求将机器人的性别与参与者的性别相匹配,以确保积极的互动结果。我的结论是建议未来的研究应:包括性别多样化的参与者池,包括非二进制参与者,依靠自我认同来辨别性别而不是研究人员的感知,控制已知的性别协变量,测试有关性​​别的不同研究结果,并测试使用的机器人是否被参与者视为性别。我包括一个附录,其中包含46篇论文中每一篇与性别相关的发现的叙述摘要,以帮助未来的文学评论。
translated by 谷歌翻译
了解信任如何建造在时间之中至关重要,因为信托在接受和采用自动车辆(AVS)中发挥着重要作用。本研究旨在调查制度绩效和参与者信任前提条件对接管过渡期间动态情境信任的影响。我们在观看了30个视频时,通过报告和行为措施评估了42名参与者的动态情境信任。该研究是3乘2个混合受试者设计,其中受试者内部变量是系统性能(即,95 \%,80 \%和70 \%的精度水平)和受试者之间的变量是前提条件参与者的信任(即俯视和弱者)。我们的研究结果表明,参与者迅速调整了他们的自我报告的情境信托(SST)水平,这些信托水平与信任前提条件的系统性能的不同准确度水平一致。然而,参与者的行为情况信托(BST)受到他们信任前提的影响,不同的准确性水平。例如,与底下前提条件相比,过度截图的前提条件显着增加了协议分数。与过度截图的前提条件相比,底下前提条件显着降低了开关分数。这些结果对设计用于条件AVS的车载信任校准系统具有重要意义。
translated by 谷歌翻译
最近十年表明,人们对机器人作为福祉教练的兴趣越来越大。但是,尚未提出针对机器人设计作为促进心理健康的教练的凝聚力和全面的准则。本文详细介绍了基于基于扎根理论方法的定性荟萃分析的设计和道德建议,该方法是通过三项以用户为中心的涉及机器人福祉教练的三个不同的以用户为中心进行的,即:(1)与参与性设计研究一起进行的。 11名参与者由两位潜在用户组成,他们与人类教练一起参加了简短的专注于解决方案的实践研究,以及不同学科的教练,(2)半结构化的个人访谈数据,这些数据来自20名参加积极心理学干预研究的参与者借助机器人福祉教练胡椒,(3)与3名积极心理学研究的参与者以及2名相关的福祉教练进行了一项参与式设计研究。在进行主题分析和定性荟萃分析之后,我们将收集到收敛性和不同主题的数据整理在一起,并从这些结果中提炼了一套设计准则和道德考虑。我们的发现可以在设计机器人心理福祉教练时考虑到关键方面的关键方面。
translated by 谷歌翻译
体育活动对于健康和福祉很重要,但只有很少的人满足世界卫生组织的体育活动标准。机器人运动教练的开发可以帮助增加训练的可及性和动力。用户的接受和信任对于成功实施这种辅助机器人至关重要。这可能会受到机器人系统和机器人性能的透明度的影响,尤其是其失败。该研究对与任务,人,机器人和相互作用(T-HRI)相关的透明度水平进行了初步研究,并进行了相应调整的机器人行为。在一部分实验中,机器人性能失败允许分析与故障有关的T-HRI水平的影响。在机器人性能中遇到失败的参与者表现出比没有经历这种失败的人的接受程度和信任水平要低。此外,T-HRI级别和参与者群体之间的接受度量存在差异,这暗示了未来研究的几个方向。
translated by 谷歌翻译
Prior work has identified a resilient phenomenon that threatens the performance of human-AI decision-making teams: overreliance, when people agree with an AI, even when it is incorrect. Surprisingly, overreliance does not reduce when the AI produces explanations for its predictions, compared to only providing predictions. Some have argued that overreliance results from cognitive biases or uncalibrated trust, attributing overreliance to an inevitability of human cognition. By contrast, our paper argues that people strategically choose whether or not to engage with an AI explanation, demonstrating empirically that there are scenarios where AI explanations reduce overreliance. To achieve this, we formalize this strategic choice in a cost-benefit framework, where the costs and benefits of engaging with the task are weighed against the costs and benefits of relying on the AI. We manipulate the costs and benefits in a maze task, where participants collaborate with a simulated AI to find the exit of a maze. Through 5 studies (N = 731), we find that costs such as task difficulty (Study 1), explanation difficulty (Study 2, 3), and benefits such as monetary compensation (Study 4) affect overreliance. Finally, Study 5 adapts the Cognitive Effort Discounting paradigm to quantify the utility of different explanations, providing further support for our framework. Our results suggest that some of the null effects found in literature could be due in part to the explanation not sufficiently reducing the costs of verifying the AI's prediction.
translated by 谷歌翻译
人类在交流何时和何时发生的何时和何处的意图方面非常熟练。但是,即使是最先进的机器人实现,通常缺乏这种交流技巧。这项研究调查了使用增强现实的机器人内部状态的可视化和对人向机器人移交的意图。具体而言,我们探讨了对象和机器人抓手的可视化3D模型的使用,以传达机器人对物体所在位置的估计以及机器人打算掌握对象的姿势。我们通过16名参与者的用户研究测试了这一设计,其中每个参与者将一个立方体对象交给机器人12次。结果表明,通过增强现实的通信机器人意图基本上改善了用户对移交的感知体验。结果还表明,当机器人在定位对象时犯错时,增强现实的有效性对于相互作用的安全性和交互的流利性更加明显。
translated by 谷歌翻译
移动服务机器人变得越来越无处不在。但是,这些机器人可能对视觉障碍者(PVI)提出潜在的可访问性问题和安全问题。我们试图探索PVI在主流移动服务机器人方面面临的挑战,并确定其需求。对他们在三个新兴机器人的经历进行了采访,接受了17个PVI:真空机器人,送货机器人和无人机。我们通过考虑其围绕机器人的不同角色(直接用户和旁观者)来全面研究PVI的机器人体验。我们的研究强调了参与者对移动服务机器人访问性,安全性和隐私问题的挑战和担忧。我们发现缺乏可访问的反馈使PVI难以精确控制,定位和跟踪机器人的状态。此外,遇到移动机器人时,旁观者感到困惑,甚至吓到参与者,并呈现安全性和隐私障碍。我们进一步提炼设计注意事项,以提供PVI的更容易访问和安全的机器人。
translated by 谷歌翻译
人类不断受到他人的行为和观点的影响。至关重要的是,人类之间的社会影响是由互惠构成的:我们更多地遵循一直在考虑我们意见的人的建议。在当前的工作中,我们研究了与社会类人机器人互动时相互影响的影响是否可以出现。在一项联合任务中,人类参与者和人形机器人进行了感知估计,然后在观察伴侣的判断后可以公开修改它们。结果表明,赋予机器人表达和调节其对人类判断的易感水平的能力代表了双刃剑。一方面,当机器人遵循他们的建议时,参与者对机器人的能力失去了信心。另一方面,参与者不愿透露他们对易感机器人缺乏信心,这表明出现了支持人类机器人合作的社会影响力的相互机制。
translated by 谷歌翻译
农业面临着劳动危机,导致人们对小型,伪造机器人(AGBOTS)的兴趣增加,这些机器人可以执行精确的,有针对性的行动(例如,农作物侦察,除草,受精),同时由人类操作员进行监督。但是,农民不一定是机器人技术方面的专家,也不会采用增加其工作量的技术或不提供立即回报的技术。在这项工作中,我们探讨了远程人类操作员与多个Agbot之间进行通信的方法,并研究音频通信对操作员的偏好和生产率的影响。我们开发了一个模拟平台,在该平台中,AGBOT在一个字段中部署,随机遇到故障,并呼吁操作员寻求帮助。随着AGBOTS报告错误,测试了各种音频通信机制,以传达哪种机器人失败以及发生了什么类型的故障。人类的任务是在完成次要任务时口头诊断失败。进行了一项用户研究,以测试三种音频通信方法:耳塞,单短语命令和完整的句子通信。每个参与者都完成了一项调查,以确定他们的偏好和每种方法的总体效率。我们的结果表明,使用单个短语的系统是参与者最积极的看法,可以使人更有效地完成次要任务。该代码可在以下网址获得:https://github.com/akamboj2/agbot-sim。
translated by 谷歌翻译
Explainable AI (XAI) is widely viewed as a sine qua non for ever-expanding AI research. A better understanding of the needs of XAI users, as well as human-centered evaluations of explainable models are both a necessity and a challenge. In this paper, we explore how HCI and AI researchers conduct user studies in XAI applications based on a systematic literature review. After identifying and thoroughly analyzing 85 core papers with human-based XAI evaluations over the past five years, we categorize them along the measured characteristics of explanatory methods, namely trust, understanding, fairness, usability, and human-AI team performance. Our research shows that XAI is spreading more rapidly in certain application domains, such as recommender systems than in others, but that user evaluations are still rather sparse and incorporate hardly any insights from cognitive or social sciences. Based on a comprehensive discussion of best practices, i.e., common models, design choices, and measures in user studies, we propose practical guidelines on designing and conducting user studies for XAI researchers and practitioners. Lastly, this survey also highlights several open research directions, particularly linking psychological science and human-centered XAI.
translated by 谷歌翻译
框架已开始出现,以对提供沉浸式,直观的接口提供沉浸式,直观的界面的虚拟,增强和混合现实(VAM)技术来促进人机互动。然而,这些框架未能捕获VAM-HRI的生长子场的关键特性,并且由于连续尺度而难以持续应用。这项工作通过创建用于组织VAM-HRI系统(TOKC)的关键特征来构建这些先前的框架。 Tokcs离散地分离出现在先前作品中使用的连续尺度,以获得更一致的分类,并增加与机器人的内部模型,锚点位置,可操纵性和系统的软件相关的额外特征。为了展示工具的能力,TOKCS应用于来自第四届VAM-HRI车间的十篇论文,并检查了关键趋势和外卖。这些趋势突出了TOKCS的表现能力,同时还帮助框架更新的趋势和VAM-HRI研究的未来工作建议。
translated by 谷歌翻译