3D姿势估计对于分析和改善人体机器人相互作用的人体工程学和降低肌肉骨骼疾病的风险很重要。基于视觉的姿势估计方法容易出现传感器和模型误差以及遮挡,而姿势估计仅来自相互作用的机器人的轨迹,却遭受了模棱两可的解决方案。为了从两种方法的优势中受益并改善了它们的弊端,我们引入了低成本,非侵入性和遮挡刺激性多感应3D姿势估计算法中的物理人类手机相互作用。我们在单个相机上使用openpose的2D姿势,以及人类执行任务时相互作用的机器人的轨迹。我们将问题建模为部分观察的动力学系统,并通过粒子滤波器推断3D姿势。我们介绍了远程操作的工作,但可以将其推广到其他人类机器人互动的其他应用。我们表明,我们的多感官系统比仅使用机器人的轨迹仅使用openpose或姿势估计的姿势估计来更好地解决人运动冗余。与金标准运动捕获姿势相比,这将提高估计姿势的准确性。此外,当使用Rula评估工具进行姿势评估时,我们的方法也比其他单一感觉方法更好。
translated by 谷歌翻译
在机器人上使用皮肤样触觉传感器可以通过添加检测人类接触的能力来增强协作机器人的安全性和可用性。不幸的是,单独的简单二元触觉传感器无法确定人类接触的背景 - 无论是故意的互动还是需要安全操作的意外碰撞。许多已发表的方法使用更高级的触觉传感器或分析联合扭矩对离散相互作用进行了分类。取而代之的是,我们建议通过添加机器人安装的摄像头来增强简单二进制触觉传感器的意图识别能力。不同的相互作用特征,包括触摸位置,人姿势和凝视方向,用于训练监督的机器学习算法,以对触摸是否有意为92%的准确性。我们证明,与协作机器人百特(Baxter)的多模式意图识别相比单疗分析要准确得多。此外,我们的方法还可以通过凝视来衡量用户的注意力来连续监视在故意或无意间之间流动变化的相互作用。如果用户停止在中任务中注意注意力,则建议的意图和注意力识别算法可以激活安全功能,以防止不安全的互动。另外,提出的方法是机器人和触摸传感器布局不可知论,并且与其他方法互补。
translated by 谷歌翻译
在本文中,我们介绍一种方法来自动重建与来自单个RGB视频相互作用的人的3D运动。我们的方法估计人的3D与物体姿势,接触位置和施加在人体上的接触力的姿势。这项工作的主要贡献是三倍。首先,我们介绍一种通过建模触点和相互作用的动态来联合估计人与人的运动和致动力的方法。这是一个大规模的轨迹优化问题。其次,我们开发一种方法来从输入视频自动识别,从输入视频中识别人和物体或地面之间的2D位置和时序,从而显着简化了优化的复杂性。第三,我们在最近的视频+ Mocap数据集上验证了捕获典型的Parkour行动的方法,并在互联网视频的新数据集上展示其表现,显示人们在不受约束的环境中操纵各种工具。
translated by 谷歌翻译
我们构建了一个系统,可以通过自己的手展示动作,使任何人都可以控制机器人手和手臂。机器人通过单个RGB摄像机观察人类操作员,并实时模仿其动作。人的手和机器人的手在形状,大小和关节结构上有所不同,并且从单个未校准的相机进行这种翻译是一个高度不受约束的问题。此外,重新定位的轨迹必须有效地在物理机器人上执行任务,这要求它们在时间上平稳且没有自我收集。我们的关键见解是,虽然配对的人类机器人对应数据的收集价格昂贵,但互联网包含大量丰富而多样的人类手视频的语料库。我们利用这些数据来训练一个理解人手并将人类视频流重新定位的系统训练到机器人手臂轨迹中,该轨迹是平稳,迅速,安全和语义上与指导演示的相似的系统。我们证明,它使以前未经训练的人能够在各种灵巧的操纵任务上进行机器人的态度。我们的低成本,无手套,无标记的远程遥控系统使机器人教学更容易访问,我们希望它可以帮助机器人学习在现实世界中自主行动。视频https://robotic-telekinesis.github.io/
translated by 谷歌翻译
用机器人手操纵物体是一项复杂的任务。不仅需要协调手指,而且机器人最终效应器的姿势也需要协调。使用人类的运动演示是指导机器人行为的直观和数据效率的方式。我们提出了一个具有自动实施例映射的模块化框架,以将记录的人体运动转移到机器人系统中。在这项工作中,我们使用运动捕获来记录人类运动。我们在八项具有挑战性的任务上评估了我们的方法,其中机器人手需要掌握和操纵可变形或小且脆弱的物体。我们测试了模拟和实际机器人中的轨迹子集,并且整体成功率是一致的。
translated by 谷歌翻译
This paper proposes a novel application system for the generation of three-dimensional (3D) character animation driven by markerless human body motion capturing. The entire pipeline of the system consists of five stages: 1) the capturing of motion data using multiple cameras, 2) detection of the two-dimensional (2D) human body joints, 3) estimation of the 3D joints, 4) calculation of bone transformation matrices, and 5) generation of character animation. The main objective of this study is to generate a 3D skeleton and animation for 3D characters using multi-view images captured by ordinary cameras. The computational complexity of the 3D skeleton reconstruction based on 3D vision has been reduced as needed to achieve frame-by-frame motion capturing. The experimental results reveal that our system can effectively and efficiently capture human actions and use them to animate 3D cartoon characters in real-time.
translated by 谷歌翻译
在这项研究中,提出了一个自适应对象可变形性不足的人类机器人协作运输框架。提出的框架使通过对象传输的触觉信息与从运动捕获系统获得的人类运动信息结合在一起,以在移动协作机器人上产生反应性的全身运动。此外,它允许基于算法在共同转移过程中以直观而准确的方式旋转对象,该算法使用躯干和手动运动检测人旋转意图。首先,我们通过使用由Omni方向移动基础和协作机器人组组成的移动操纵器,通过对象变形范围的两个末端(即纯粹的铝制杆和高度变形绳)来验证框架。接下来,将其性能与12个受试者用户研究中部分可变形对象的共同携带任务中的录取控制器进行了比较。该实验的定量和定性结果表明,所提出的框架可以有效地处理物体的运输,而不管其可变形性如何,并为人类伴侣提供直观的援助。最后,我们在不同的情况下展示了我们的框架的潜力,在不同的情况下,人类和机器人使用可变形的床单共同传输了手工蛋白。
translated by 谷歌翻译
使机器人能够靠近人类工作,需要一个控制框架,该框架不仅包括用于自主和协调的交互的多感官信息,而且还具有感知的任务计划,以确保适应性和灵活的协作行为。在这项研究中,提出了一种直观的任务堆叠(ISOT)制剂,通过考虑人臂姿势和任务进展来定义机器人的动作。该框架以visuo-tactive信息增强,以有效地了解协作环境,直观地在计划的子任务之间切换。来自深度摄像机的视觉反馈监视并估计物体的姿势和人臂姿势,而触觉数据提供勘探技能以检测和维持所需的触点以避免物体滑动。为了评估由人类和人机合作伙伴执行的所提出的框架,装配和拆卸任务的性能,有效性和可用性,使用不同的评估指标进行考虑和分析,方法适应,掌握校正,任务协调延迟,累积姿势偏差,以及任务重复性。
translated by 谷歌翻译
Robotic teleoperation is a key technology for a wide variety of applications. It allows sending robots instead of humans in remote, possibly dangerous locations while still using the human brain with its enormous knowledge and creativity, especially for solving unexpected problems. A main challenge in teleoperation consists of providing enough feedback to the human operator for situation awareness and thus create full immersion, as well as offering the operator suitable control interfaces to achieve efficient and robust task fulfillment. We present a bimanual telemanipulation system consisting of an anthropomorphic avatar robot and an operator station providing force and haptic feedback to the human operator. The avatar arms are controlled in Cartesian space with a direct mapping of the operator movements. The measured forces and torques on the avatar side are haptically displayed to the operator. We developed a predictive avatar model for limit avoidance which runs on the operator side, ensuring low latency. The system was successfully evaluated during the ANA Avatar XPRIZE competition semifinals. In addition, we performed in lab experiments and carried out a small user study with mostly untrained operators.
translated by 谷歌翻译
在治疗方案中应用的机器人,例如在自闭症谱系障碍的个体治疗中,有时被用于模仿学习活动,其中一个人需要由机器人重复运动。为了简化合并机器人可以执行的新运动的任务,希望机器人能够通过观察人类(例如治疗师)的示威来学习动作。在本文中,我们研究了一种从人类的骨骼观察中获取动作的方法,该方法是由以机器人为中心的RGB-D摄像头收集的。给定一系列观察到各种关节,在通过PID位置控制器执行之前,将关节位置映射以匹配机器人的配置。我们通过使用Qtrobot进行一项研究来评估该方法,尤其是繁殖误差,其中机器人从多个参与者中获取了不同的上身舞蹈动作。结果表明该方法的总体可行性,但也表明繁殖质量受骨架观测中噪声的影响。
translated by 谷歌翻译
Teideration为人类运营商提供了一种方法,以引导机器人在完全自治挑战或需要直接人类干预的情况下引导机器人。它也可以是教授机器人的重要工具,以便稍后实现自主行为。协同机器人武器和虚拟现实(VR)设备的可用性增加了充足的机会,用于开发新颖的无电术方法。由于机器人武器通常与人的武器相比,因此实时地将人类动作映射到机器人并不琐碎。此外,人类操作员可以将机器人手臂转向奇点或其工作空间限制,这可能导致不希望的行为。这进一步强调了多个机器人的编排。在本文中,我们提出了一个针对多臂有效载荷操作的VR接口,其可以与实时输入运动密切匹配。允许用户操纵有效载荷,而不是将它们的动作映射到各个武器,我们能够同时引导多个协作臂。通过释放单一的自由度,并通过使用本地优化方法,我们可以提高每个ARM的可操纵性指数,这反过来让我们避免运动奇点和工作空间限制。我们将我们的方法应用于预定义的轨迹以及不同机器人臂上的实时遥通,并在终端效应器位置误差和相关联合运动指标方面进行比较。
translated by 谷歌翻译
由于它们过去证明的准确性较低,因此对3D摄像机进行步态分析的使用受到了高度质疑。本文介绍的研究的目的是提高机器人安装在人体步态分析中的估计的准确性,通过应用监督的学习阶段。 3D摄像头安装在移动机器人中,以获得更长的步行距离。这项研究表明,通过使用从认证的Vicon系统获得的数据训练的人工神经网络对相机的原始估计进行后处理,从而改善了运动步态信号和步态描述符的检测。为此,招募了37名健康参与者,并使用ORBBEC ASTRA 3D摄像头收集了207个步态序列的数据。有两种基本的训练方法:使用运动学步态信号并使用步态描述符。前者试图通过减少误差并增加相对于Vicon系统的相关性来改善运动步态信号的波形。第二个是一种更直接的方法,专注于直接使用步态描述符训练人工神经网络。在训练之前和之后测量了3D摄像头的精度。在两种训练方法中,都观察到了改进。运动步态信号显示出较低的错误和相对于地面真理的较高相关性。检测步态描述符的系统的准确性也显示出很大的改进,主要是运动学描述符,而不是时空。在比较两种训练方法时,不可能定义哪个是绝对最好的。因此,我们认为,培训方法的选择将取决于要进行的研究的目的。这项研究揭示了3D摄像机的巨大潜力,并鼓励研究界继续探索他们在步态分析中的使用。
translated by 谷歌翻译
我们提出了体面意识的人类姿势估计,我们根据模拟代理的本体感受和场景意识以及外部第三人称观察来估计3D构成。与经常诉诸多阶段优化的先前方法不同,非因果推理和复杂的接触建模以估计人类姿势和人类场景的相互作用,我们的方法是一个阶段,因果关系,并在模拟环境中恢复全局3D人类姿势。由于2D第三人称观察与相机姿势结合在一起,我们建议解开相机姿势,并使用在全球坐标框架中定义的多步投影梯度作为我们体现的代理的运动提示。利用物理模拟和预先的场景(例如3D网格),我们在日常环境(库,办公室,卧室等)中模拟代理,并为我们的代理配备环境传感器,以智能导航和与场景的几何形状进行智能导航和互动。我们的方法还仅依靠2D关键点,并且可以在来自流行人类运动数据库的合成数据集上进行培训。为了评估,我们使用流行的H36M和Prox数据集,并首次在具有挑战性的Prox数据集中获得96.7%的成功率,而无需使用Prox运动序列进行培训。
translated by 谷歌翻译
遥操作平台通常要求用户位于固定位置,以便可视化和控制机器人的运动,因此不提供具有多种移动性的操作员。一个例子是现有的机器人手术解决方案,该解决方案要求外科医生远离患者,附着在其头部必须固定的控制台上,并且它们的臂只能在有限的空间中移动。这在正常手术中的医生和患者之间产生了障碍。为了解决这个问题,我们提出了一个移动电话专业解决方案,外科医生不再机械地限制在控制控制台上,并且能够使用配备有无线传感器的手臂来远优步到患者床边的机器人,并通过光学查看内窥镜视频 - 通过头戴式显示器(HMDS)。我们评估我们的用户交互方法的可行性和效率,与标准的手术机器人机械手相比,通过两个任务,具有不同水平的所需灵活性。结果表明,通过足够的训练,我们所提出的平台可以获得类似的效率,同时为操作员提供额外的移动性。
translated by 谷歌翻译
We introduce a new dataset, Human3.6M, of 3.6 Million accurate 3D Human poses, acquired by recording the performance of 5 female and 6 male subjects, under 4 different viewpoints, for training realistic human sensing systems and for evaluating the next generation of human pose estimation models and algorithms. Besides increasing the size of the datasets in the current state of the art by several orders of magnitude, we also aim to complement such datasets with a diverse set of motions and poses encountered as part of typical human activities (taking photos, talking on the phone, posing, greeting, eating, etc.), with additional synchronized image, human motion capture and time of flight (depth) data, and with accurate 3D body scans of all the subject actors involved. We also provide controlled mixed reality evaluation scenarios where 3D human models are animated using motion capture and inserted using correct 3D geometry, in complex real environments, viewed with moving cameras, and under occlusion. Finally, we provide a set of large scale statistical models and detailed evaluation baselines for the dataset illustrating its diversity and the scope for improvement by future work in the research community. Our experiments show that our best large scale model can leverage our full training set to obtain a 20% improvement in performance compared to a training set of the scale of the largest existing public dataset for this problem. Yet the potential for improvement by leveraging higher capacity, more complex models with our large dataset, is substantially vaster and should stimulate future research. The dataset together with code for the associated large-scale learning models, features, visualization tools, as well as the evaluation server, is available online at http://vision.imar.ro/human3.6m.
translated by 谷歌翻译
大多数实时人类姿势估计方法都基于检测接头位置。使用检测到的关节位置,可以计算偏差和肢体的俯仰。然而,由于这种旋转轴仍然不观察,因此不能计算沿着肢体沿着肢体至关重要的曲折,这对于诸如体育分析和计算机动画至关重要。在本文中,我们引入了方向关键点,一种用于估计骨骼关节的全位置和旋转的新方法,仅使用单帧RGB图像。灵感来自Motion-Capture Systems如何使用一组点标记来估计全骨骼旋转,我们的方法使用虚拟标记来生成足够的信息,以便准确地推断使用简单的后处理。旋转预测改善了接头角度最佳报告的平均误差48%,并且在15个骨骼旋转中实现了93%的精度。该方法还通过MPJPE在原理数据集上测量,通过MPJPE测量,该方法还改善了当前的最新结果14%,并概括为野外数据集。
translated by 谷歌翻译
在本报告中,我们提出了在哥斯达黎加太平洋架子和圣托里尼 - Kolumbo Caldera Complex中,在寻找寿命中的寻找寿命任务中的自主海洋机器人技术协调,操作策略和结果。它作为可能存在于海洋超越地球的环境中的类似物。本报告侧重于ROV操纵器操作的自动化,用于从海底获取有针对性的生物样品收集和返回的。在未来的外星勘查任务到海洋世界的背景下,ROV是一个模拟的行星着陆器,必须能够有能力的高水平自主权。我们的田间试验涉及两个水下车辆,冰(Nui)杂交ROV的两个水下车辆(即,龙眼或自主)任务,都配备了7-DOF液压机械手。我们描述了一种适应性,硬件无关的计算机视觉架构,可实现高级自动化操作。 Vision系统提供了对工作空间的3D理解,以便在复杂的非结构化环境中通知操纵器运动计划。我们展示了视觉系统和控制框架通过越来越具有挑战性的环境中的现场试验的有效性,包括来自活性Undersea火山,Kolumbo内的自动收集和生物样品的回报。根据我们在该领域的经验,我们讨论了我们的系统的表现,并确定了未来研究的有希望的指示。
translated by 谷歌翻译
当今的混合现实头戴式显示器显示了用户在世界空间中的头部姿势以及用户的手,以在增强现实和虚拟现实场景中进行互动。尽管这足以支持用户输入,但不幸的是,它仅限于用户的虚拟表示形式。因此,当前的系统诉诸于浮动化身,其限制在协作环境中尤为明显。为了估算稀疏输入源的全身姿势,先前的工作已在骨盆或下半身中融合了其他跟踪器和传感器,从而增加了设置的复杂性并限制了移动设置中的实际应用。在本文中,我们提出了AvatarPoser,这是第一个基于学习的方法,该方法仅使用用户头和手中的运动输入来预测世界坐标中的全身姿势。我们的方法建立在变压器编码器上,以从输入信号中提取深度特征,并将全局运动从学到的局部关节取向中解脱出来,以指导姿势估计。为了获得类似于运动捕获动画的准确全身运动,我们使用具有逆运动学的优化程序来完善臂关节位置,以匹配原始跟踪输入。在我们的评估中,AvatarPoser实现了新的最新最新结果,从而对大型运动捕获数据集(Amass)进行了评估。同时,我们的方法的推理速度支持实时操作,提供了一个实用的接口,以支持整体化的头像控制和元应用的表示形式。
translated by 谷歌翻译
能够重现从光相互作用到接触力学的物理现象,模拟器在越来越多的应用程序域变得越来越有用,而现实世界中的相互作用或标记数据很难获得。尽管最近取得了进展,但仍需要大量的人为努力来配置模拟器以准确地再现现实世界的行为。我们介绍了一条管道,将反向渲染与可区分的模拟相结合,从而从深度或RGB视频中创建数字双铰接式机制。我们的方法自动发现关节类型并估算其运动学参数,而整体机制的动态特性则调整为实现物理准确的模拟。正如我们在模拟系统上所证明的那样,在我们的派生模拟传输中优化的控制策略成功地回到了原始系统。此外,我们的方法准确地重建了由机器人操纵的铰接机制的运动学树,以及现实世界中耦合的摆机制的高度非线性动力学。网站:https://Eric-heiden.github.io/video2sim
translated by 谷歌翻译
老年人的数量越来越多,对医疗保健以及特别是康复医疗保健令人担忧。辅助技术和辅助机器人特别可能有助于改善这一过程。我们开发一个能够向患者展示康复锻炼的机器人教练,观看患者进行练习并给予他的反馈,以提高他的表现并鼓励他。该系统的HRI基于我们的研究与康复治疗师和目标人群的团队。系统依赖于人类运动分析。我们开发了一种学习概率表达的方法,从专家演示中学习理想运动。使用使用Microsoft Kinect V2捕获的位置和取向特征采用高斯混合模型。为了评估患者的动作,我们提出了一个时间的多级分析,暂时和空间上识别并解释了身体部位误差。该分析与分类算法相结合允许机器人提供教练建议,以使患者提高他的运动。三次康复演习的评价表明了提出的学习和评估Kinaesthetic运动的方法。
translated by 谷歌翻译