这项研究提出了新的策略,以研究信任和群体动态在儿童机器人相互作用中的相互影响。我们使用类人机器人ICUB实施了类似游戏的实验活动,并设计了一份问卷来评估孩子如何看待这种相互作用。我们还旨在验证传感器,设置和任务是否适合研究此类方面。问卷的结果表明,年轻人将ICUB视为朋友,通常以积极的方式将ICUB视为朋友。其他初步结果表明,通常,孩子在活动期间信任ICUB,并且在其错误后,他们试图用诸如:“不用担心ICUB,我们原谅您”之类的句子来放心。此外,对机器人在小组认知活动中的信任似乎会根据性别而发生变化:在机器人连续两个错误之后,女孩倾向于比男孩更信任ICUB。最后,跨游戏计算的点和自我报告的量表之间的不同年龄组之间没有明显的差异。我们提出的工具适合研究不同年龄段的人类机器人相互作用(HRI)的信任,并且似乎适合理解小组相互作用的信任机制。
translated by 谷歌翻译
在这里,我询问我们可以了解如何了解性别如何影响人们如何与机器人互动。我回顾了2018年或更早发布的46个社会机器人的实证研究,报告了其参与者的性别,机器人的感知或预期性别,或两者兼而有之,并对参与者或机器人性别进行了一些分析。从这些研究中,我发现机器人默认被认为是男性,机器人吸收了人类的性别刻板印象,并且男性倾向于比女性更多地与机器人互动。我强调了关于年轻参与者中这种性别影响如何有何不同的开放问题,以及是否应该寻求将机器人的性别与参与者的性别相匹配,以确保积极的互动结果。我的结论是建议未来的研究应:包括性别多样化的参与者池,包括非二进制参与者,依靠自我认同来辨别性别而不是研究人员的感知,控制已知的性别协变量,测试有关性​​别的不同研究结果,并测试使用的机器人是否被参与者视为性别。我包括一个附录,其中包含46篇论文中每一篇与性别相关的发现的叙述摘要,以帮助未来的文学评论。
translated by 谷歌翻译
在过去的几年中,围绕种族类人体机器人的有问题实践的讨论已经上升。为了彻底理解机器人在人类机器人互动(HRI)社区中如何理解机器人的“性别” - 即如何被操纵,在哪些环境中以及其对人们的看法和人们产生哪些影响的影响,为基础建立基础。与机器人的互动 - 我们对文献进行了范围的评论。我们确定了553篇与我们从5个不同数据库中检索的评论相关的论文。审查论文的最终样本包括2005年至2021年之间的35篇论文,其中涉及3902名参与者。在本文中,我们通过报告有关其性别的目标和假设的信息(即操纵性别的定义和理由),对机器人的“性别”(即性别提示和操纵检查),对性别的定义和理由进行彻底总结这些论文。 (例如,参与者的人口统计学,受雇的机器人)及其结果(即主要和互动效应)。该评论表明,机器人的“性别”不会影响HRI的关键构建,例如可爱和接受,而是对刻板印象产生最强烈的影响。我们利用社会机器人技术和性别研究中的不同认识论背景来提供有关审查结果的全面跨学科观点,并提出了在HRI领域前进的方法。
translated by 谷歌翻译
Taking advice from others requires confidence in their competence. This is important for interaction with peers, but also for collaboration with social robots and artificial agents. Nonetheless, we do not always have access to information about others' competence or performance. In these uncertain environments, do our prior beliefs about the nature and the competence of our interacting partners modulate our willingness to rely on their judgments? In a joint perceptual decision making task, participants made perceptual judgments and observed the simulated estimates of either a human participant, a social humanoid robot or a computer. Then they could modify their estimates based on this feedback. Results show participants' belief about the nature of their partner biased their compliance with its judgments: participants were more influenced by the social robot than human and computer partners. This difference emerged strongly at the very beginning of the task and decreased with repeated exposure to empirical feedback on the partner's responses, disclosing the role of prior beliefs in social influence under uncertainty. Furthermore, the results of our functional task suggest an important difference between human-human and human-robot interaction in the absence of overt socially relevant signal from the partner: the former is modulated by social normative mechanisms, whereas the latter is guided by purely informational mechanisms linked to the perceived competence of the partner.
translated by 谷歌翻译
可解释的人工智能的最新发展有望改变人类机器人互动的潜力:机器人决策的解释可能会影响用户的看法,证明其可靠性并提高信任。但是,尚未对解释其决定的机器人看法的影响进行彻底研究。为了分析可解释的机器人的效果,我们进行了一项研究,其中两个模拟机器人可以玩竞争性棋盘游戏。当一个机器人解释其动作时,另一个机器人只宣布它们。提供有关其行为的解释不足以改变机器人的感知能力,智力,可爱性或安全等级。但是,结果表明,解释其动作的机器人被认为是更活泼和人类的。这项研究证明了对可解释的人类机器人相互作用的必要性和潜力,以及对其效应作为新的研究方向的更广泛评估。
translated by 谷歌翻译
人类不断受到他人的行为和观点的影响。至关重要的是,人类之间的社会影响是由互惠构成的:我们更多地遵循一直在考虑我们意见的人的建议。在当前的工作中,我们研究了与社会类人机器人互动时相互影响的影响是否可以出现。在一项联合任务中,人类参与者和人形机器人进行了感知估计,然后在观察伴侣的判断后可以公开修改它们。结果表明,赋予机器人表达和调节其对人类判断的易感水平的能力代表了双刃剑。一方面,当机器人遵循他们的建议时,参与者对机器人的能力失去了信心。另一方面,参与者不愿透露他们对易感机器人缺乏信心,这表明出现了支持人类机器人合作的社会影响力的相互机制。
translated by 谷歌翻译
Gender/ing guides how we view ourselves, the world around us, and each other--including non-humans. Critical voices have raised the alarm about stereotyped gendering in the design of socially embodied artificial agents like voice assistants, conversational agents, and robots. Yet, little is known about how this plays out in research and to what extent. As a first step, we critically reviewed the case of Pepper, a gender-ambiguous humanoid robot. We conducted a systematic review (n=75) involving meta-synthesis and content analysis, examining how participants and researchers gendered Pepper through stated and unstated signifiers and pronoun usage. We found that ascriptions of Pepper's gender were inconsistent, limited, and at times discordant, with little evidence of conscious gendering and some indication of researcher influence on participant gendering. We offer six challenges driving the state of affairs and a practical framework coupled with a critical checklist for centering gender in research on artificial agents.
translated by 谷歌翻译
Intelligent agents have great potential as facilitators of group conversation among older adults. However, little is known about how to design agents for this purpose and user group, especially in terms of agent embodiment. To this end, we conducted a mixed methods study of older adults' reactions to voice and body in a group conversation facilitation agent. Two agent forms with the same underlying artificial intelligence (AI) and voice system were compared: a humanoid robot and a voice assistant. One preliminary study (total n=24) and one experimental study comparing voice and body morphologies (n=36) were conducted with older adults and an experienced human facilitator. Findings revealed that the artificiality of the agent, regardless of its form, was beneficial for the socially uncomfortable task of conversation facilitation. Even so, talkative personality types had a poorer experience with the "bodied" robot version. Design implications and supplementary reactions, especially to agent voice, are also discussed.
translated by 谷歌翻译
我们从两个在线人机互动实验中介绍了数据,其中227名参与者观看了人形机器人的视频,表现出有缺陷或非故障行为,同时保持沉默或说话。要求参与者评估他们对机器人的信任度的看法,以及其可爱,动画和感知的情报。结果表明,虽然一个非故障机器人达到了最高的信任,但可以说出来的似乎有故障的机器人可以完全减轻否则会出现错误行为的信任损失。我们认为,这种缓解与在存在语音时也可以看到的感知智能的增加有关。
translated by 谷歌翻译
最近十年表明,人们对机器人作为福祉教练的兴趣越来越大。但是,尚未提出针对机器人设计作为促进心理健康的教练的凝聚力和全面的准则。本文详细介绍了基于基于扎根理论方法的定性荟萃分析的设计和道德建议,该方法是通过三项以用户为中心的涉及机器人福祉教练的三个不同的以用户为中心进行的,即:(1)与参与性设计研究一起进行的。 11名参与者由两位潜在用户组成,他们与人类教练一起参加了简短的专注于解决方案的实践研究,以及不同学科的教练,(2)半结构化的个人访谈数据,这些数据来自20名参加积极心理学干预研究的参与者借助机器人福祉教练胡椒,(3)与3名积极心理学研究的参与者以及2名相关的福祉教练进行了一项参与式设计研究。在进行主题分析和定性荟萃分析之后,我们将收集到收敛性和不同主题的数据整理在一起,并从这些结果中提炼了一套设计准则和道德考虑。我们的发现可以在设计机器人心理福祉教练时考虑到关键方面的关键方面。
translated by 谷歌翻译
人类机器人的互动,其中具有一定级别的自治水平的机器人与人类相互作用以实现特定目标,这已经取得了许多最新进展。随着自主机器人的引入以及在不久的将来广泛使用人们的可能性,至关重要的是,人类在与它们互动的同时了解机器人的意图,因为这将促进人类机器人信任的发展。近年来,研究人员引入了对信任的新概念化,将人类机器人互动的信任视为多维性质。归因于信任的两个主要方面是绩效信任和道德信任。我们旨在设计一个实验,以调查搜索和救援场景中侵犯性能违法和道德信任的后果。我们想看看是否有两个类似的机器人失败,一种是由侵犯性能违规而引起的,另一种是由道德信任违规引起的,对人类的信任产生了明显的影响。除此之外,我们计划开发一个界面,使我们能够调查将界面的模式从网格世界情景(2D环境)变为现实模拟(3D环境)是否会影响人类对任务的看法和机器人故障的影响关于人类的信任。
translated by 谷歌翻译
本文介绍了一种名为“ Hand of Hands”的新颖协作教育游戏的设计,实施和评估,涉及我们设计的儿童和定制的社交机器人(\ Emph {hakshe})。通过这个游戏平台,我们旨在向儿童讲授适当的手卫生实践,并探索在这种环境中亲社会机器人与儿童之间发生的互动程度。我们将游戏化与计算机作为社会演员(CASA)范式融合在一起,以将机器人作为社会演员或游戏中的其他玩家建模。该游戏是使用Godot的2D引擎和Alice 3开发的。在这项研究中,32名参与者通过视频电视节目平台\ Emph {Zoom}在线玩游戏。为了理解亲社会机器人对儿童互动的影响,我们将研究分为两个条件:裸露和没有裸露。对儿童互动的标题和视频分析的详细分析表明,我们的平台帮助孩子学习了良好的手工卫生实践。我们还发现,尽管学习本身并没有受到机器人的亲社会性影响,但使用亲社会机器人会创造出令人愉悦的互动和更大的社交互动。
translated by 谷歌翻译
人类的感知基于无意识的推论,其中感觉输入与先前的信息集成在一起。这种现象被称为上下文依赖性,有助于面对外部世界的不确定性,并在先前的经验上构建了预测。另一方面,人类的感知过程固有地是由社会互动塑造的。但是,上下文依赖性的机制如何影响到迄今为止未知。如果使用以前的经验 - 先验 - 在单个环境中是有益的,那么它可能代表了其他代理商可能没有相同先验的社会场景中的问题,从而在共享环境上造成了感知的错误。本研究解决了这个问题。我们研究了与人形机器人ICUB的互动环境中的上下文依赖性,该机器人是刺激示威者。参与者在两个条件下重现了机器人所示的长度:一个具有社交性的ICUB,另一个与ICUB充当机械臂。机器人的不同行为显着影响了感知的先验使用。此外,社会机器人通过提高准确性并减少参与者的总体感知错误,从而对感知性能产生积极影响。最后,观察到的现象是按照贝叶斯的方法加深和探索共同感知的新概念进行了建模的。
translated by 谷歌翻译
最后,这项工作将包括对解释的上下文形式的调查。在这项研究中,我们将包括一个时间障碍的方案,其中将测试不同水平的理解水平,以使我们能够评估合适且可理解的解释。为此,我们提出了不同的理解水平(lou)。用户研究将旨在比较不同的LOU在不同的互动环境中。将研究同时医院环境的用户研究。
translated by 谷歌翻译
在本文中,我们研究了在共享物理空间中运行时的影响界面和反馈对人机信任级别的反馈。我们使用的任务是为室内环境中的机器人指定“无-Go”区域。我们评估三种界面(物理,AR和基于地图)和四个反馈机制(无反馈,机器人在空间,AR“栅栏”和地图上标记的区域)。我们的评估看起来可用和信任。具体而言,如果参与者信任机器人“知道”在禁止地区是禁止机器人避免该区域的能力的地方。我们使用自我报告和间接的信任措施和可用性。我们的主要研究结果是:1)接口和反馈确实影响信任水平;2)参与者在很大程度上优选的混合界面反馈对,其中界面的模态与反馈不同。
translated by 谷歌翻译
机器人越来越多地部署在与人类共享的空间中,包括家庭环境和工业环境。在这些环境中,人与机器人之间的相互作用(HRI)对于安全性,可读性和效率至关重要。 HRI的一个关键因素是信任,它调节了系统的接受。已显示拟人化可以调节机器人的信任发展,但工业环境中的机器人通常不是拟人化的。我们在工业环境中设计了一个简单的互动,在该环境中,拟人化模拟驱动器(ARMOD)机器人模拟了自动驾驶汽车(AGV)。该任务由与AGV的人类交叉路径组成,有或不带有狭窄的走廊上安装在顶部。人类和系统在越过路径时需要协商轨迹,这意味着人必须关注机器人的轨迹,以避免与它发生碰撞。在存在ARMOD的情况下,报告的信任评分有显着的增长,表明拟人化机器人的存在足以调节信任,即使在有限的相互作用中,就像我们在这里提出的相互作用一样。
translated by 谷歌翻译
由于社会机器人在日常环境中越来越普遍,因此他们将参加对话并适当地管理与他们共享的信息。然而,关于机器人如何适当地辨别信息的敏感性,这几乎都知道,这对人机信任具有重大影响。作为解决此问题的一部分的第一步,我们设计了隐私控制员,知己,用于对话社会机器人,能够使用与对话中的对话中的上下文元数据(例如,情绪,关系,主题)进行模型隐私边界。之后,我们进行了两项众群用户研究。第一项研究(n = 174)重点是,是否被认为是私人/敏感或非私人/非敏感性的各种人类互动情景。我们第一次研究的调查结果用于生成关联规则。我们的第二个研究(n = 95)通过比较使用我们的隐私控制器对基线机器人的机器人来评估人机交互情景中隐私控制器的有效性和准确性,这些机器人对基线机器人没有隐私控制。我们的结果表明,没有隐私控制器的机器人在没有隐私控制器的隐私权,可信度和社会意识中占有于机器人。我们得出结论,隐私控制器在真实的人机对话中的整合可以允许更可靠的机器人。此初始隐私控制员将作为更复杂的解决方案作为基础。
translated by 谷歌翻译
体育活动对于健康和福祉很重要,但只有很少的人满足世界卫生组织的体育活动标准。机器人运动教练的开发可以帮助增加训练的可及性和动力。用户的接受和信任对于成功实施这种辅助机器人至关重要。这可能会受到机器人系统和机器人性能的透明度的影响,尤其是其失败。该研究对与任务,人,机器人和相互作用(T-HRI)相关的透明度水平进行了初步研究,并进行了相应调整的机器人行为。在一部分实验中,机器人性能失败允许分析与故障有关的T-HRI水平的影响。在机器人性能中遇到失败的参与者表现出比没有经历这种失败的人的接受程度和信任水平要低。此外,T-HRI级别和参与者群体之间的接受度量存在差异,这暗示了未来研究的几个方向。
translated by 谷歌翻译
在人类居住的环境中使用机器人的挑战是设计对人类互动引起的扰动且鲁棒的设计行为。我们的想法是用内在动机(IM)拟订机器人,以便它可以处理新的情况,并作为人类的真正社交,因此对人类互动伙伴感兴趣。人机互动(HRI)实验主要关注脚本或远程机器人,这是模拟特性,如IM来控制孤立的行为因素。本文介绍了一个“机器人学家”的研究设计,允许比较自主生成的行为彼此,而且首次评估机器人中基于IM的生成行为的人类感知。我们在受试者内部用户学习(n = 24),参与者与具有不同行为制度的完全自主的Sphero BB8机器人互动:一个实现自适应,本质上动机的行为,另一个是反应性的,但不是自适应。机器人及其行为是故意最小的,以专注于IM诱导的效果。与反应基线行为相比,相互作用后问卷的定量分析表明对尺寸“温暖”的显着提高。温暖被认为是人类社会认知中社会态度形成的主要维度。一种被认为是温暖(友好,值得信赖的)的人体验更积极的社交互动。
translated by 谷歌翻译
这项研究表明,预期和实际相互作用如何影响老年人的SAR量化量化。这项研究包括两个部分:在线调查,可通过视频观看SAR和接受研究的验收研究来探索预期的交互作用,其中老年人与机器人进行了互动。这项研究的两个部分均在Gymmy的帮助下完成,这是一种机器人系统,我们的实验室开发了用于培训老年人身体和认知活动的培训。两个研究部分都表现出相似的用户响应,表明用户可以通过预期的互动来预测SAR的接受。索引术语:衰老,人类机器人互动,老年人,质量评估,社会辅助机器人,技术接受,技术恐惧症,信任,用户体验。
translated by 谷歌翻译