在这里,我询问我们可以了解如何了解性别如何影响人们如何与机器人互动。我回顾了2018年或更早发布的46个社会机器人的实证研究,报告了其参与者的性别,机器人的感知或预期性别,或两者兼而有之,并对参与者或机器人性别进行了一些分析。从这些研究中,我发现机器人默认被认为是男性,机器人吸收了人类的性别刻板印象,并且男性倾向于比女性更多地与机器人互动。我强调了关于年轻参与者中这种性别影响如何有何不同的开放问题,以及是否应该寻求将机器人的性别与参与者的性别相匹配,以确保积极的互动结果。我的结论是建议未来的研究应:包括性别多样化的参与者池,包括非二进制参与者,依靠自我认同来辨别性别而不是研究人员的感知,控制已知的性别协变量,测试有关性​​别的不同研究结果,并测试使用的机器人是否被参与者视为性别。我包括一个附录,其中包含46篇论文中每一篇与性别相关的发现的叙述摘要,以帮助未来的文学评论。
translated by 谷歌翻译
在过去的几年中,围绕种族类人体机器人的有问题实践的讨论已经上升。为了彻底理解机器人在人类机器人互动(HRI)社区中如何理解机器人的“性别” - 即如何被操纵,在哪些环境中以及其对人们的看法和人们产生哪些影响的影响,为基础建立基础。与机器人的互动 - 我们对文献进行了范围的评论。我们确定了553篇与我们从5个不同数据库中检索的评论相关的论文。审查论文的最终样本包括2005年至2021年之间的35篇论文,其中涉及3902名参与者。在本文中,我们通过报告有关其性别的目标和假设的信息(即操纵性别的定义和理由),对机器人的“性别”(即性别提示和操纵检查),对性别的定义和理由进行彻底总结这些论文。 (例如,参与者的人口统计学,受雇的机器人)及其结果(即主要和互动效应)。该评论表明,机器人的“性别”不会影响HRI的关键构建,例如可爱和接受,而是对刻板印象产生最强烈的影响。我们利用社会机器人技术和性别研究中的不同认识论背景来提供有关审查结果的全面跨学科观点,并提出了在HRI领域前进的方法。
translated by 谷歌翻译
Gender/ing guides how we view ourselves, the world around us, and each other--including non-humans. Critical voices have raised the alarm about stereotyped gendering in the design of socially embodied artificial agents like voice assistants, conversational agents, and robots. Yet, little is known about how this plays out in research and to what extent. As a first step, we critically reviewed the case of Pepper, a gender-ambiguous humanoid robot. We conducted a systematic review (n=75) involving meta-synthesis and content analysis, examining how participants and researchers gendered Pepper through stated and unstated signifiers and pronoun usage. We found that ascriptions of Pepper's gender were inconsistent, limited, and at times discordant, with little evidence of conscious gendering and some indication of researcher influence on participant gendering. We offer six challenges driving the state of affairs and a practical framework coupled with a critical checklist for centering gender in research on artificial agents.
translated by 谷歌翻译
最近十年表明,人们对机器人作为福祉教练的兴趣越来越大。但是,尚未提出针对机器人设计作为促进心理健康的教练的凝聚力和全面的准则。本文详细介绍了基于基于扎根理论方法的定性荟萃分析的设计和道德建议,该方法是通过三项以用户为中心的涉及机器人福祉教练的三个不同的以用户为中心进行的,即:(1)与参与性设计研究一起进行的。 11名参与者由两位潜在用户组成,他们与人类教练一起参加了简短的专注于解决方案的实践研究,以及不同学科的教练,(2)半结构化的个人访谈数据,这些数据来自20名参加积极心理学干预研究的参与者借助机器人福祉教练胡椒,(3)与3名积极心理学研究的参与者以及2名相关的福祉教练进行了一项参与式设计研究。在进行主题分析和定性荟萃分析之后,我们将收集到收敛性和不同主题的数据整理在一起,并从这些结果中提炼了一套设计准则和道德考虑。我们的发现可以在设计机器人心理福祉教练时考虑到关键方面的关键方面。
translated by 谷歌翻译
Intelligent agents have great potential as facilitators of group conversation among older adults. However, little is known about how to design agents for this purpose and user group, especially in terms of agent embodiment. To this end, we conducted a mixed methods study of older adults' reactions to voice and body in a group conversation facilitation agent. Two agent forms with the same underlying artificial intelligence (AI) and voice system were compared: a humanoid robot and a voice assistant. One preliminary study (total n=24) and one experimental study comparing voice and body morphologies (n=36) were conducted with older adults and an experienced human facilitator. Findings revealed that the artificiality of the agent, regardless of its form, was beneficial for the socially uncomfortable task of conversation facilitation. Even so, talkative personality types had a poorer experience with the "bodied" robot version. Design implications and supplementary reactions, especially to agent voice, are also discussed.
translated by 谷歌翻译
这项研究提出了新的策略,以研究信任和群体动态在儿童机器人相互作用中的相互影响。我们使用类人机器人ICUB实施了类似游戏的实验活动,并设计了一份问卷来评估孩子如何看待这种相互作用。我们还旨在验证传感器,设置和任务是否适合研究此类方面。问卷的结果表明,年轻人将ICUB视为朋友,通常以积极的方式将ICUB视为朋友。其他初步结果表明,通常,孩子在活动期间信任ICUB,并且在其错误后,他们试图用诸如:“不用担心ICUB,我们原谅您”之类的句子来放心。此外,对机器人在小组认知活动中的信任似乎会根据性别而发生变化:在机器人连续两个错误之后,女孩倾向于比男孩更信任ICUB。最后,跨游戏计算的点和自我报告的量表之间的不同年龄组之间没有明显的差异。我们提出的工具适合研究不同年龄段的人类机器人相互作用(HRI)的信任,并且似乎适合理解小组相互作用的信任机制。
translated by 谷歌翻译
本文详细概述了将连续学习(CL)应用于单课的人类机器人互动(HRI)会议(AVG。31 +-10分钟)的案例研究,其中机器人的心理健康教练是积极的(n = 20)参与者的心理学(PP)练习。我们介绍了互动会议后与参与者进行的简短半结构访谈记录的数据的主题分析(TA)的结果,以及对统计结果的分析,证明了参与者的个性如何影响他们如何看待机器人的方式及其互动。
translated by 谷歌翻译
情绪可以提供自然的交流方式,以补充许多领域中社交机器人(例如文本和语音)现有的多模式能力。我们与112、223和151名参与者进行了三项在线研究,以调查使用情绪作为搜救(SAR)机器人的交流方式的好处。在第一个实验中,我们研究了通过机器人的情绪传达与SAR情况有关的信息的可行性,从而导致了从SAR情况到情绪的映射。第二项研究使用控制控制理论是推导此类映射的替代方法。此方法更灵活,例如允许对不同的情绪集和不同机器人进行调整。在第三个实验中,我们使用LED作为表达通道为外观受限的室外现场研究机器人创建了情感表达。在各种模拟的SAR情况下,使用这些情感表达式,我们评估了这些表达式对参与者(采用救援人员的作用)的影响。我们的结果和提议的方法提供了(a)有关情感如何帮助在SAR背景下传达信息的见解,以及(b)在(模拟)SAR通信环境中添加情绪为传播方式的有效性的证据。
translated by 谷歌翻译
Taking advice from others requires confidence in their competence. This is important for interaction with peers, but also for collaboration with social robots and artificial agents. Nonetheless, we do not always have access to information about others' competence or performance. In these uncertain environments, do our prior beliefs about the nature and the competence of our interacting partners modulate our willingness to rely on their judgments? In a joint perceptual decision making task, participants made perceptual judgments and observed the simulated estimates of either a human participant, a social humanoid robot or a computer. Then they could modify their estimates based on this feedback. Results show participants' belief about the nature of their partner biased their compliance with its judgments: participants were more influenced by the social robot than human and computer partners. This difference emerged strongly at the very beginning of the task and decreased with repeated exposure to empirical feedback on the partner's responses, disclosing the role of prior beliefs in social influence under uncertainty. Furthermore, the results of our functional task suggest an important difference between human-human and human-robot interaction in the absence of overt socially relevant signal from the partner: the former is modulated by social normative mechanisms, whereas the latter is guided by purely informational mechanisms linked to the perceived competence of the partner.
translated by 谷歌翻译
我们从两个在线人机互动实验中介绍了数据,其中227名参与者观看了人形机器人的视频,表现出有缺陷或非故障行为,同时保持沉默或说话。要求参与者评估他们对机器人的信任度的看法,以及其可爱,动画和感知的情报。结果表明,虽然一个非故障机器人达到了最高的信任,但可以说出来的似乎有故障的机器人可以完全减轻否则会出现错误行为的信任损失。我们认为,这种缓解与在存在语音时也可以看到的感知智能的增加有关。
translated by 谷歌翻译
在人类居住的环境中使用机器人的挑战是设计对人类互动引起的扰动且鲁棒的设计行为。我们的想法是用内在动机(IM)拟订机器人,以便它可以处理新的情况,并作为人类的真正社交,因此对人类互动伙伴感兴趣。人机互动(HRI)实验主要关注脚本或远程机器人,这是模拟特性,如IM来控制孤立的行为因素。本文介绍了一个“机器人学家”的研究设计,允许比较自主生成的行为彼此,而且首次评估机器人中基于IM的生成行为的人类感知。我们在受试者内部用户学习(n = 24),参与者与具有不同行为制度的完全自主的Sphero BB8机器人互动:一个实现自适应,本质上动机的行为,另一个是反应性的,但不是自适应。机器人及其行为是故意最小的,以专注于IM诱导的效果。与反应基线行为相比,相互作用后问卷的定量分析表明对尺寸“温暖”的显着提高。温暖被认为是人类社会认知中社会态度形成的主要维度。一种被认为是温暖(友好,值得信赖的)的人体验更积极的社交互动。
translated by 谷歌翻译
触摸是人类之间互动和交流的关键部分,但在人类机器人的互动中仍然很少探索。在这项工作中,要求参与者接近并触摸手上的人形机器人(NAO -26名参与者; Pepper -28名参与者),以引起注意。我们为机器人设计了反应行为,该机器人由四种不同的手臂运动组合组成,而被触摸的手向前或向后移动,另一只手向前移动或保持到位,同时向后倾斜,然后看参与者。我们研究了机器人的哪种反应发现最合适的是他们选择的原因。对于两个机器人,被触摸的机器人手的首选反应正在向后移动。另一方面,根本没有任何动作对胡椒来说最自然,而NAO则是向前移动的。发现了参与者人格特征的焦虑量表与机器人反应的主动/侵略性的被动性分量表之间的相关性。大多数参与者注意到倾斜的后背并积极地对其进行了评分。一些参与者在非结构化评论中对参与者进行了积极评论。我们还分析了参与者在哪里以及如何自发接触机器人手上的地方。总而言之,这里设计的触摸反应行为是一个很好的候选人,可以更普遍地在社交机器人中部署,可能包括在拥挤的环境中偶然触摸。机器人尺寸构成了一个重要因素,该因素塑造了如何感知机器人反应。
translated by 谷歌翻译
情绪分析中最突出的任务是为文本分配情绪,并了解情绪如何在语言中表现出来。自然语言处理的一个重要观察结果是,即使没有明确提及情感名称,也可以通过单独参考事件来隐式传达情绪。在心理学中,被称为评估理论的情感理论类别旨在解释事件与情感之间的联系。评估可以被形式化为变量,通过他们认为相关的事件的人们的认知评估来衡量认知评估。其中包括评估事件是否是新颖的,如果该人认为自己负责,是否与自己的目标以及许多其他人保持一致。这样的评估解释了哪些情绪是基于事件开发的,例如,新颖的情况会引起惊喜或不确定后果的人可能引起恐惧。我们在文本中分析了评估理论对情绪分析的适用性,目的是理解注释者是否可以可靠地重建评估概念,如果可以通过文本分类器预测,以及评估概念是否有助于识别情感类别。为了实现这一目标,我们通过要求人们发短信描述触发特定情绪并披露其评估的事件来编译语料库。然后,我们要求读者重建文本中的情感和评估。这种设置使我们能够衡量是否可以纯粹从文本中恢复情绪和评估,并为判断模型的绩效指标提供人体基准。我们将文本分类方法与人类注释者的比较表明,两者都可以可靠地检测出具有相似性能的情绪和评估。我们进一步表明,评估概念改善了文本中情绪的分类。
translated by 谷歌翻译
移动服务机器人变得越来越无处不在。但是,这些机器人可能对视觉障碍者(PVI)提出潜在的可访问性问题和安全问题。我们试图探索PVI在主流移动服务机器人方面面临的挑战,并确定其需求。对他们在三个新兴机器人的经历进行了采访,接受了17个PVI:真空机器人,送货机器人和无人机。我们通过考虑其围绕机器人的不同角色(直接用户和旁观者)来全面研究PVI的机器人体验。我们的研究强调了参与者对移动服务机器人访问性,安全性和隐私问题的挑战和担忧。我们发现缺乏可访问的反馈使PVI难以精确控制,定位和跟踪机器人的状态。此外,遇到移动机器人时,旁观者感到困惑,甚至吓到参与者,并呈现安全性和隐私障碍。我们进一步提炼设计注意事项,以提供PVI的更容易访问和安全的机器人。
translated by 谷歌翻译
人类不断受到他人的行为和观点的影响。至关重要的是,人类之间的社会影响是由互惠构成的:我们更多地遵循一直在考虑我们意见的人的建议。在当前的工作中,我们研究了与社会类人机器人互动时相互影响的影响是否可以出现。在一项联合任务中,人类参与者和人形机器人进行了感知估计,然后在观察伴侣的判断后可以公开修改它们。结果表明,赋予机器人表达和调节其对人类判断的易感水平的能力代表了双刃剑。一方面,当机器人遵循他们的建议时,参与者对机器人的能力失去了信心。另一方面,参与者不愿透露他们对易感机器人缺乏信心,这表明出现了支持人类机器人合作的社会影响力的相互机制。
translated by 谷歌翻译
最后,这项工作将包括对解释的上下文形式的调查。在这项研究中,我们将包括一个时间障碍的方案,其中将测试不同水平的理解水平,以使我们能够评估合适且可理解的解释。为此,我们提出了不同的理解水平(lou)。用户研究将旨在比较不同的LOU在不同的互动环境中。将研究同时医院环境的用户研究。
translated by 谷歌翻译
消费者设备中的语音代理的激增需要新的工具,用于评估这些系统超出其技术功能。本文提出了一种用于评估语音用户界面(VUIS)的工具包,其目的是测量用户体验中主观享受的关键因素。使用现有文献的元分析构建了Pueva Toolkit,结构化N = 20和半结构化N = 18个访谈和一个受试者实验室研究。由此产生的问卷包含35项,其中三类代表12种规模:(1)个性(2)用途和(3)令人愉快的态度。Pueva Toolkit将我们迁移到评估和比较科学之间的主观,快乐体验的能力以及对象内研究设计。
translated by 谷歌翻译
本文介绍了一种名为“ Hand of Hands”的新颖协作教育游戏的设计,实施和评估,涉及我们设计的儿童和定制的社交机器人(\ Emph {hakshe})。通过这个游戏平台,我们旨在向儿童讲授适当的手卫生实践,并探索在这种环境中亲社会机器人与儿童之间发生的互动程度。我们将游戏化与计算机作为社会演员(CASA)范式融合在一起,以将机器人作为社会演员或游戏中的其他玩家建模。该游戏是使用Godot的2D引擎和Alice 3开发的。在这项研究中,32名参与者通过视频电视节目平台\ Emph {Zoom}在线玩游戏。为了理解亲社会机器人对儿童互动的影响,我们将研究分为两个条件:裸露和没有裸露。对儿童互动的标题和视频分析的详细分析表明,我们的平台帮助孩子学习了良好的手工卫生实践。我们还发现,尽管学习本身并没有受到机器人的亲社会性影响,但使用亲社会机器人会创造出令人愉悦的互动和更大的社交互动。
translated by 谷歌翻译
在本文中,我们介绍了基于差异驱动器快照机器人和模拟的用户研究的基于倾斜的控制的实现,目的是将相同的功能带入真正的远程介绍机器人。参与者使用平衡板来控制机器人,并通过头部安装的显示器查看了虚拟环境。使用平衡板作为控制装置的主要动机源于虚拟现实(VR)疾病;即使是您自己的身体与屏幕上看到的动作相匹配的小动作也降低了视力和前庭器官之间的感觉冲突,这是大多数关于VR疾病发作的理论的核心。为了检验平衡委员会作为控制方法的假设比使用操纵杆要少可恶意,我们设计了一个用户研究(n = 32,15名女性),参与者在虚拟环境中驾驶模拟差异驱动器机器人, Nintendo Wii平衡板或操纵杆。但是,我们的预注册的主要假设不得到支持。操纵杆并没有使参与者引起更多的VR疾病,而委员会在统计学上的主观和客观性上都更加难以使用。分析开放式问题表明这些结果可能是有联系的,这意味着使用的困难似乎会影响疾病。即使在测试之前的无限训练时间也没有像熟悉的操纵杆那样容易使用。因此,使董事会更易于使用是启用其潜力的关键。我们为这个目标提供了一些可能性。
translated by 谷歌翻译
There has been a recent resurgence in the area of explainable artificial intelligence as researchers and practitioners seek to make their algorithms more understandable. Much of this research is focused on explicitly explaining decisions or actions to a human observer, and it should not be controversial to say that looking at how humans explain to each other can serve as a useful starting point for explanation in artificial intelligence. However, it is fair to say that most work in explainable artificial intelligence uses only the researchers' intuition of what constitutes a 'good' explanation. There exists vast and valuable bodies of research in philosophy, psychology, and cognitive science of how people define, generate, select, evaluate, and present explanations, which argues that people employ certain cognitive biases and social expectations towards the explanation process. This paper argues that the field of explainable artificial intelligence should build on this existing research, and reviews relevant papers from philosophy, cognitive psychology/science, and social psychology, which study these topics. It draws out some important findings, and discusses ways that these can be infused with work on explainable artificial intelligence.
translated by 谷歌翻译