从人类演示到机器人的动作重返是一种有效的方法,可以减少机器人编程的专业需求和工作量,但面临着人与机器人之间的差异导致的挑战。基于传统的优化的方法是耗时的,依赖良好的初始化,而最近使用前馈神经网络的研究遭受了不良的通知来看不见的运动。此外,他们忽略了人类骨骼和机器人结构中的拓扑信息。在本文中,我们提出了一种新的神经潜在优化方法来解决这些问题。潜在优化利用解码器来建立潜在空间和机器人运动空间之间的映射。之后,通过寻找最佳潜伏向量,可以获得满足机器人约束的重个结果。随着潜在优化,神经初始化利用编码器来提供更好初始化以更快,更好地收敛优化。人体骨架和机器人结构都被建模为更好地利用拓扑信息的图表。我们对重新靶向中文手语进行实验,涉及两只手臂和两只手,对关节中相对关系的额外要求。实验包括在模拟环境中的yumi,nao和辣椒和现实世界环境中的yumi重新定位各种人类示范。验证了所提出的方法的效率和准确性。
translated by 谷歌翻译
快速,可靠地找到准确的逆运动学(IK)解决方案仍然是机器人操纵的挑战性问题。现有的数值求解器广泛适用,但依赖于本地搜索技术来管理高度非关键目标函数。最近,基于学习的方法已显示出有望作为生成快速准确的IK结果的一种手段。可以轻松地将学习的求解器与端到端系统中的其他学习算法集成在一起。但是,基于学习的方法具有致命的脚跟:每个感兴趣的机器人都需要一个专门的模型,必须从头开始训练。为了解决这一关键缺点,我们研究了一种新颖的距离几何机器人表示,并与图形结构相结合,使我们能够利用图形神经网络(GNNS)的灵活性。我们使用这种方法来训练第一个学到的生成图形逆运动学(GGIK)求解器,它至关重要的是,“机器人 - 敏捷” - 单个模型能够为各种不同的机器人提供IK解决方案。此外,GGIK的生成性质使求解器可以同时生产大量不同的解决方案,并与最小的额外计算时间同行,使其适用于诸如基于采样的运动计划之类的应用。最后,GGIK可以通过提供可靠的初始化来补充本地IK求解器。这些优势以及使用与任务相关的先验并通过新数据不断改进的能力表明,GGIK有可能成为灵活的,基于学习的机器人操作系统的关键组成部分。
translated by 谷歌翻译
从意外的外部扰动中恢复的能力是双模型运动的基本机动技能。有效的答复包括不仅可以恢复平衡并保持稳定性的能力,而且在平衡恢复物质不可行时,也可以保证安全的方式。对于与双式运动有关的机器人,例如人形机器人和辅助机器人设备,可帮助人类行走,设计能够提供这种稳定性和安全性的控制器可以防止机器人损坏或防止伤害相关的医疗费用。这是一个具有挑战性的任务,因为它涉及用触点产生高维,非线性和致动系统的高动态运动。尽管使用基于模型和优化方法的前进方面,但诸如广泛领域知识的要求,诸如较大的计算时间和有限的动态变化的鲁棒性仍然会使这个打开问题。在本文中,为了解决这些问题,我们开发基于学习的算法,能够为两种不同的机器人合成推送恢复控制政策:人形机器人和有助于双模型运动的辅助机器人设备。我们的工作可以分为两个密切相关的指示:1)学习人形机器人的安全下降和预防策略,2)使用机器人辅助装置学习人类的预防策略。为实现这一目标,我们介绍了一套深度加强学习(DRL)算法,以学习使用这些机器人时提高安全性的控制策略。
translated by 谷歌翻译
逆运动学(IK)解决了从笛卡尔空间到机器人臂的关节配置空间的映射问题。它在计算机图形,蛋白质结构预测和机器人技术等领域具有广泛的应用。随着人工神经网络(NNS)的巨大进步,许多研究人员最近转向了以数据为导向的方法来解决IK问题。不幸的是,NNS因繁殖度(DOFS)的机器人臂而变得不足。这是因为这样的臂可能具有多个角度解决方案以达到相同的所需姿势,而典型的NNS仅实现一对一的映射功能,这仅将一个一致的输出与给定输入相关联。为了培训可用的NNS解决IK问题,大多数现有的作品都采用定制的培训数据集,其中每个所需的姿势只有一个角度解决方案。这不可避免地限制了拟议方法的概括和自动化。本文在两个方面打破了:(1)一种涵盖机器人臂的整个工作空间的系统和机械方法,可以完全自动化,并且在手臂开发后只能完成一次; (2)一种基于NN的新型框架,可以利用冗余DOF为任何给定所需的机器人臂的姿势产生多角度解。后者对于机器人应用特别有用,例如避免障碍物和姿势模仿。
translated by 谷歌翻译
机器人技术中最重要的挑战之一是产生准确的轨迹并控制其动态参数,以便机器人可以执行不同的任务。提供此类运动控制的能力与此类运动的编码方式密切相关。深度学习的进步在发展动态运动原语的新方法的发展方面产生了强烈的影响。在这项工作中,我们调查了与神经动态运动原始素有关的科学文献,以补充有关动态运动原语的现有调查。
translated by 谷歌翻译
我们建议学习使用隐式功能通过灵巧的手来产生抓握运动来操纵。通过连续的时间输入,该模型可以生成连续且平滑的抓握计划。我们命名了建议的模型连续掌握函数(CGF)。 CGF是通过使用3D人类演示的有条件变异自动编码器的生成建模来学习的。我们将首先通过运动重试将大规模的人类对象相互作用轨迹转换为机器人演示,然后使用这些演示训练CGF。在推断期间,我们使用CGF进行采样,以在模拟器中生成不同的抓握计划,并选择成功的抓握计划以转移到真实的机器人中。通过对不同人类数据的培训,我们的CGF允许概括来操纵多个对象。与以前的计划算法相比,CGF更有效,并且在转移到真正的Allegro手抓住的情况下,成功率显着提高。我们的项目页面位于https://jianglongye.com/cgf
translated by 谷歌翻译
学习灵巧的操纵技巧是计算机图形和机器人技术的长期挑战,尤其是当任务涉及手,工具和物体之间的复杂而微妙的互动时。在本文中,我们专注于基于筷子的对象搬迁任务,这些任务很常见却又要求。成功的筷子技巧的关键是稳定地抓住棍棒,这也支持精致的演习。我们会自动发现贝叶斯优化(BO)和深钢筋学习(DRL)的身体有效的筷子姿势,它适用于多种握把的样式和手工形态,而无需示例数据。作为输入,我们要移动发现的抓紧姿势和所需的对象,我们构建了基于物理的手部控制器,以在两个阶段完成重定位任务。首先,运动轨迹是为筷子合成的,并处于运动计划阶段。我们运动策划者的关键组件包括一个握把模型,以选择用于抓住对象的合适筷子配置,以及一个轨迹优化模块,以生成无碰撞的筷子轨迹。然后,我们再次通过DRL训练基于物理的手部控制器,以跟踪运动计划者产生的所需运动轨迹。我们通过重新定位各种形状和尺寸的对象,以多种诱人的样式和多种手工形态的位置来展示框架的功能。与试图学习基于筷子的技能的香草系统相比,我们的系统实现了更快的学习速度和更好的控制鲁棒性,而无需抓紧姿势优化模块和/或没有运动学运动计划者。
translated by 谷歌翻译
Imitation learning techniques aim to mimic human behavior in a given task. An agent (a learning machine) is trained to perform a task from demonstrations by learning a mapping between observations and actions. The idea of teaching by imitation has been around for many years, however, the field is gaining attention recently due to advances in computing and sensing as well as rising demand for intelligent applications. The paradigm of learning by imitation is gaining popularity because it facilitates teaching complex tasks with minimal expert knowledge of the tasks. Generic imitation learning methods could potentially reduce the problem of teaching a task to that of providing demonstrations; without the need for explicit programming or designing reward functions specific to the task. Modern sensors are able to collect and transmit high volumes of data rapidly, and processors with high computational power allow fast processing that maps the sensory data to actions in a timely manner. This opens the door for many potential AI applications that require real-time perception and reaction such as humanoid robots, self-driving vehicles, human computer interaction and computer games to name a few. However, specialized algorithms are needed to effectively and robustly learn models as learning by imitation poses its own set of challenges. In this paper, we survey imitation learning methods and present design options in different steps of the learning process. We introduce a background and motivation for the field as well as highlight challenges specific to the imitation problem. Methods for designing and evaluating imitation learning tasks are categorized and reviewed. Special attention is given to learning methods in robotics and games as these domains are the most popular in the literature and provide a wide array of problems and methodologies. We extensively discuss combining imitation learning approaches using different sources and methods, as well as incorporating other motion learning methods to enhance imitation. We also discuss the potential impact on industry, present major applications and highlight current and future research directions.
translated by 谷歌翻译
我们提出了一个隐式神经表示,以学习运动运动运动的时空空间。与以前代表运动为离散顺序样本的工作不同,我们建议将广泛的运动空间随着时间的流逝表达为连续函数,因此名称为神经运动场(NEMF)。具体来说,我们使用神经网络来学习此功能,以用于杂项运动集,该动作旨在以时间坐标为$ t $的生成模型和用于控制样式的随机矢量$ z $。然后,将模型作为变异自动编码器(VAE)进行训练,并带有运动编码器来采样潜在空间。我们使用多样化的人类运动数据集和四倍的数据集训练模型,以证明其多功能性,并最终将其部署为通用运动,然后再解决任务 - 静态问题,并在不同的运动生成和编辑应用中显示出优势,例如运动插值,例如运动插值,例如 - 上映和重新散布。可以在我们的项目页面上找到更多详细信息:https://cs.yale.edu/homes/che/projects/nemf/
translated by 谷歌翻译
为了实现无冲突的人机合作,机器人代理需要巧妙地避免在实现集体目标的同时不断地移动障碍。有时,这些障碍甚至可以同时改变其3D形状和形式,因此是“无定形的”。为此,本文提出了动态的无定形障碍物避免(DAO-A)的问题,在该问题中,机器人的手臂可以右翼避免动态产生的障碍,从而不断改变其轨迹和3D形式。具体来说,我们为机器人臂引入了一种新颖的控制策略,该策略既利用拓扑流形学习,又利用最新的深度学习进步。我们在模拟和物理实验中使用7多型机器人操纵器测试我们的学习框架,该机器人令人满意地学习并综合了避免以前未见的障碍的现实技能,同时产生了新颖的动作,以实现预定的运动目标。最值得注意的是,对于给定的机器人操纵器而言,我们学到的学到的方法可以避免使用任意和看不见的移动轨迹的任何数量的3D障碍
translated by 谷歌翻译
本文提出了一种从示威(LFD)中进行深度机器人学习的新型概率方法。深度运动原语(DMP)是确定性的LFD模型,可直接将视觉信息映射到机器人轨迹中。本文扩展了DMP,并提出了一个深层概率模型,该模型将视觉信息映射到有效的机器人轨迹的分布中。提出了导致轨迹精度最高水平的结构,并与现有方法进行了比较。此外,本文介绍了一种用于学习域特异性潜在特征的新型培训方法。我们展示了在实验室的草莓收集任务中提出的概率方法和新颖的潜在空间学习的优势。实验结果表明,潜在空间学习可以显着改善模型预测性能。提出的方法允许从分布中采样轨迹并优化机器人轨迹以满足次级目标,例如避免碰撞。
translated by 谷歌翻译
机器人和与世界相互作用或互动的机器人和智能系统越来越多地被用来自动化各种任务。这些系统完成这些任务的能力取决于构成机器人物理及其传感器物体的机械和电气部件,例如,感知算法感知环境,并计划和控制算法以生产和控制算法来生产和控制算法有意义的行动。因此,通常有必要在设计具体系统时考虑这些组件之间的相互作用。本文探讨了以端到端方式对机器人系统进行任务驱动的合作的工作,同时使用推理或控制算法直接优化了系统的物理组件以进行任务性能。我们首先考虑直接优化基于信标的本地化系统以达到本地化准确性的问题。设计这样的系统涉及将信标放置在整个环境中,并通过传感器读数推断位置。在我们的工作中,我们开发了一种深度学习方法,以直接优化信标的放置和位置推断以达到本地化精度。然后,我们将注意力转移到了由任务驱动的机器人及其控制器优化的相关问题上。在我们的工作中,我们首先提出基于多任务增强学习的数据有效算法。我们的方法通过利用能够在物理设计的空间上概括设计条件的控制器,有效地直接优化了物理设计和控制参数,以直接优化任务性能。然后,我们对此进行跟进,以允许对离散形态参数(例如四肢的数字和配置)进行优化。最后,我们通过探索优化的软机器人的制造和部署来得出结论。
translated by 谷歌翻译
Policy search methods can allow robots to learn control policies for a wide range of tasks, but practical applications of policy search often require hand-engineered components for perception, state estimation, and low-level control. In this paper, we aim to answer the following question: does training the perception and control systems jointly end-toend provide better performance than training each component separately? To this end, we develop a method that can be used to learn policies that map raw image observations directly to torques at the robot's motors. The policies are represented by deep convolutional neural networks (CNNs) with 92,000 parameters, and are trained using a guided policy search method, which transforms policy search into supervised learning, with supervision provided by a simple trajectory-centric reinforcement learning method. We evaluate our method on a range of real-world manipulation tasks that require close coordination between vision and control, such as screwing a cap onto a bottle, and present simulated comparisons to a range of prior policy search methods.
translated by 谷歌翻译
本文提出了运动拼图,这是一个新型的运动风格转移网络,在几个重要方面都可以提高最先进的方式。运动难题是第一个可以控制各个身体部位运动样式的动作,从而可以进行本地样式编辑并大大增加风格化运动的范围。我们的框架旨在保持人的运动学结构,从多种样式运动中提取了风格的特征,用于不同的身体部位,并将其本地转移到目标身体部位。另一个主要优点是,它可以通过整合自适应实例正常化和注意力模块,同时保持骨骼拓扑结构,从而传递全球和本地运动风格的特征。因此,它可以捕获动态运动所表现出的样式,例如拍打和惊人,比以前的工作要好得多。此外,我们的框架允许使用样式标签或运动配对的数据集进行任意运动样式传输,从而使许多公开的运动数据集可用于培训。我们的框架可以轻松地与运动生成框架集成,以创建许多应用程序,例如实时运动传输。我们通过许多示例和以前的工作比较来证明我们的框架的优势。
translated by 谷歌翻译
我们构建了一个系统,可以通过自己的手展示动作,使任何人都可以控制机器人手和手臂。机器人通过单个RGB摄像机观察人类操作员,并实时模仿其动作。人的手和机器人的手在形状,大小和关节结构上有所不同,并且从单个未校准的相机进行这种翻译是一个高度不受约束的问题。此外,重新定位的轨迹必须有效地在物理机器人上执行任务,这要求它们在时间上平稳且没有自我收集。我们的关键见解是,虽然配对的人类机器人对应数据的收集价格昂贵,但互联网包含大量丰富而多样的人类手视频的语料库。我们利用这些数据来训练一个理解人手并将人类视频流重新定位的系统训练到机器人手臂轨迹中,该轨迹是平稳,迅速,安全和语义上与指导演示的相似的系统。我们证明,它使以前未经训练的人能够在各种灵巧的操纵任务上进行机器人的态度。我们的低成本,无手套,无标记的远程遥控系统使机器人教学更容易访问,我们希望它可以帮助机器人学习在现实世界中自主行动。视频https://robotic-telekinesis.github.io/
translated by 谷歌翻译
内部计算模型的物理体是机器人和动物的能力来规划和控制行动的基础。这些“自我模型”允许机器人考虑多种可能的未来行动的结果,而不会在物理现实中尝试。最近的完全数据驱动自建模中的进展使机器能够直接从任务 - 不可行的交互数据学习自己的前瞻性运动学。然而,前进kinema \ -tics模型只能预测形态的有限方面,例如关节和肿块的最终效果或速度的位置。一个关键的挑战是模拟整个形态和运动学,而无需先验知识的形态的哪些方面与未来的任务相关。在这里,我们建议,而不是直接建模前瞻性,更有用的自我建模形式是一个可以回答空间占用查询的形式,而是在机器人的状态下调节空间占用疑问。这种查询驱动的自模型在空间域中是连续的,内存高效,完全可分辨:运动感知。在物理实验中,我们展示了视觉自我模型是如何准确到工作空间的百分比,使机器人能够执行各种运动规划和控制任务。视觉自我建模还可以让机器人从真实世界损坏中检测,本地化和恢复,从而提高机器弹性。我们的项目网站是:https://robot-morphology.cs.columbia.edu/
translated by 谷歌翻译
学习细粒度的运动是机器人技术中最具挑战性的主题之一。这尤其是机器人手。机器人的手语获取或更具体地说,机器人中的手指手语获取可以被视为这种挑战的特定实例。在本文中,我们提出了一种从视频示例中学习灵巧的运动模仿的方法,而无需使用任何其他信息。我们为每个关节构建一个机器人手的乌尔德FF模型。通过利用预先训练的深视力模型,我们从RGB视频中提取手的3D姿势。然后,使用最新的强化学习算法进行运动模仿(即,近端政策优化),我们训练一项政策,以重现从演示中提取的运动。我们确定最佳的超参数集以基于参考运动执行模仿。此外,我们演示了我们的方法能够概括超过6个不同的手指字母的能力。
translated by 谷歌翻译
数据驱动的字符动画技术依赖于存在正确建立的运动模型,能够描述其丰富的上下文。然而,常用的运动表示通常不能准确地编码运动的完全铰接,或者存在伪影。在这项工作中,我们解决了寻找运动建模的强大姿势表示的根本问题,适用于深色字符动画,可以更好地限制姿势和忠实地捕获与骨骼特征相关的细微差别。我们的表示基于双季度,具有明确定义的操作的数学抽象,它同时编码旋转和位置方向,使得能够围绕根居中的层次结构感知编码。我们证明我们的代表克服了普通的运动伪影,并与其他流行的表现相比评估其性能。我们进行消融研究,以评估可以在学习期间融入的各种损失的影响。利用我们的表示隐含地编码骨架运动属性,我们在包含具有不同比例的数据集上培训一个数据集,而无需将它们重新排列到通用骨架上,这导致待忽略的微妙运动元素。我们表明可以实现光滑和自然的姿势,为迷人的应用铺平道路。
translated by 谷歌翻译
当今的混合现实头戴式显示器显示了用户在世界空间中的头部姿势以及用户的手,以在增强现实和虚拟现实场景中进行互动。尽管这足以支持用户输入,但不幸的是,它仅限于用户的虚拟表示形式。因此,当前的系统诉诸于浮动化身,其限制在协作环境中尤为明显。为了估算稀疏输入源的全身姿势,先前的工作已在骨盆或下半身中融合了其他跟踪器和传感器,从而增加了设置的复杂性并限制了移动设置中的实际应用。在本文中,我们提出了AvatarPoser,这是第一个基于学习的方法,该方法仅使用用户头和手中的运动输入来预测世界坐标中的全身姿势。我们的方法建立在变压器编码器上,以从输入信号中提取深度特征,并将全局运动从学到的局部关节取向中解脱出来,以指导姿势估计。为了获得类似于运动捕获动画的准确全身运动,我们使用具有逆运动学的优化程序来完善臂关节位置,以匹配原始跟踪输入。在我们的评估中,AvatarPoser实现了新的最新最新结果,从而对大型运动捕获数据集(Amass)进行了评估。同时,我们的方法的推理速度支持实时操作,提供了一个实用的接口,以支持整体化的头像控制和元应用的表示形式。
translated by 谷歌翻译
我们研究了实时的协作机器人(Cobot)处理,Cobot在人类命令下操纵工件。当人类直接处理工件时,这是有用的。但是,在可能的操作中难以使COBOT易于命令和灵活。在这项工作中,我们提出了一个实时协作机器人处理(RTCOHand)框架,其允许通过用户定制的动态手势控制COBOT。由于用户,人类运动不确定性和嘈杂的人类投入的变化,这很难。我们将任务塑造为概率的生成过程,称为条件协作处理过程(CCHP),并从人类的合作中学习。我们彻底评估了CCHP的适应性和稳健性,并将我们的方法应用于Kinova Gen3机器人手臂的实时Cobot处理任务。我们实现了与经验丰富和新用户的无缝人员合作。与古典控制器相比,RTCEHAND允许更复杂的操作和更低的用户认知负担。它还消除了对试验和错误的需求,在安全关键任务中呈现。
translated by 谷歌翻译