人形机器人可以在危险情况下取代人类,但大多数此类情况对他们来说同样危险,这意味着他们有很大的损害和下降的机会。我们假设人形机器人主要用于建筑物,这使它们可能靠近墙壁。为了避免跌倒,他们可以像人类那样靠在最接近的墙上,只要他们在几毫秒内找到手放手的地方。本文介绍了一种称为D-Reflex的方法,该方法学习了一个神经网络,该神经网络在墙壁方向,墙壁距离和机器人的姿势下选择此接触位置。然后,全身控制器使用此接触位置来达到稳定的姿势。我们表明,D-Reflex允许模拟的Talos机器人(1.75m,100kg,30自由度)避免了超过75%的可避免跌倒,并且可以在真正的机器人上工作。
translated by 谷歌翻译
从意外的外部扰动中恢复的能力是双模型运动的基本机动技能。有效的答复包括不仅可以恢复平衡并保持稳定性的能力,而且在平衡恢复物质不可行时,也可以保证安全的方式。对于与双式运动有关的机器人,例如人形机器人和辅助机器人设备,可帮助人类行走,设计能够提供这种稳定性和安全性的控制器可以防止机器人损坏或防止伤害相关的医疗费用。这是一个具有挑战性的任务,因为它涉及用触点产生高维,非线性和致动系统的高动态运动。尽管使用基于模型和优化方法的前进方面,但诸如广泛领域知识的要求,诸如较大的计算时间和有限的动态变化的鲁棒性仍然会使这个打开问题。在本文中,为了解决这些问题,我们开发基于学习的算法,能够为两种不同的机器人合成推送恢复控制政策:人形机器人和有助于双模型运动的辅助机器人设备。我们的工作可以分为两个密切相关的指示:1)学习人形机器人的安全下降和预防策略,2)使用机器人辅助装置学习人类的预防策略。为实现这一目标,我们介绍了一套深度加强学习(DRL)算法,以学习使用这些机器人时提高安全性的控制策略。
translated by 谷歌翻译
Legged robots pose one of the greatest challenges in robotics. Dynamic and agile maneuvers of animals cannot be imitated by existing methods that are crafted by humans. A compelling alternative is reinforcement learning, which requires minimal craftsmanship and promotes the natural evolution of a control policy. However, so far, reinforcement learning research for legged robots is mainly limited to simulation, and only few and comparably simple examples have been deployed on real systems. The primary reason is that training with real robots, particularly with dynamically balancing systems, is complicated and expensive. In the present work, we report a new method for training a neural network policy in simulation and transferring it to a state-of-the-art legged system, thereby we leverage fast, automated, and cost-effective data generation schemes. The approach is applied to the ANYmal robot, a sophisticated medium-dog-sized quadrupedal system. Using policies trained in simulation, the quadrupedal machine achieves locomotion skills that go beyond what had been achieved with prior methods: ANYmal is capable of precisely and energy-efficiently following high-level body velocity commands, running faster than ever before, and recovering from falling even in complex configurations.
translated by 谷歌翻译
随着腿部机器人和嵌入式计算都变得越来越有能力,研究人员已经开始专注于这些机器人的现场部署。在非结构化环境中的强大自治需要对机器人周围的世界感知,以避免危害。但是,由于处理机车动力学所需的复杂规划人员和控制器,因此在网上合并在线的同时在线保持敏捷运动对腿部机器人更具挑战性。该报告将比较三种最新的感知运动方法,并讨论可以使用视觉来实现腿部自主权的不同方式。
translated by 谷歌翻译
由于机器人动力学中的固有非线性,腿部机器人全身动作的在线计划具有挑战性。在这项工作中,我们提出了一个非线性MPC框架,该框架可以通过有效利用机器人动力学结构来在线生成全身轨迹。Biconmp用于在真正的四倍机器人上生成各种环状步态,其性能在不同的地形上进行了评估,对抗不同步态之间的不可预见的推动力并在线过渡。此外,提出了双孔在机器人上产生非平凡无环的全身动态运动的能力。同样的方法也被用来在人体机器人(TALOS)上产生MPC的各种动态运动,并在模拟中产生另一个四倍的机器人(Anymal)。最后,报告并讨论了对计划范围和频率对非线性MPC框架的影响的广泛经验分析。
translated by 谷歌翻译
在粗糙的地形上的动态运动需要准确的脚部放置,避免碰撞以及系统的动态不足的计划。在存在不完美且常常不完整的感知信息的情况下,可靠地优化此类动作和互动是具有挑战性的。我们提出了一个完整的感知,计划和控制管道,可以实时优化机器人所有自由度的动作。为了减轻地形所带来的数值挑战,凸出不平等约束的顺序被提取为立足性可行性的局部近似值,并嵌入到在线模型预测控制器中。每个高程映射预先计算了步骤性分类,平面分割和签名的距离场,以最大程度地减少优化过程中的计算工作。多次射击,实时迭代和基于滤波器的线路搜索的组合用于可靠地以高速率解决该法式问题。我们在模拟中的间隙,斜率和踏上石头的情况下验证了所提出的方法,并在Anymal四倍的平台上进行实验,从而实现了最新的动态攀登。
translated by 谷歌翻译
这项工作将控制屏障功能(CBF)与全身控制器结合在一起,以使MIT类人动物自我避免。现有的反应性控制器进行自我避免,不能保证无碰撞的轨迹,因为它们不利用机器人的完整动态,从而损害了运动学的可行性。相比之下,拟议的CBF-WBC控制器可以实时理解机器人的动力学不足,以确保无碰撞运动。该方法的有效性在模拟中得到了验证。首先,一个简单的手段实验表明,CBF-WBC使机器人的手能够偏离不可行的参考轨迹,以避免自我收集。其次,CBF-WBC与设计用于动态运动的线性模型预测控制器(LMPC)结合使用,并使用CBF-WBC来跟踪LMPC预测。质心动量任务还用于产生有助于人形运动和干扰恢复的手臂运动。步行实验表明,CBF允许质心动量任务产生可行的手臂运动,并在高级规划师提供的脚步位置或摇摆轨迹时避免腿部自我收获,对于真正的机器人来说是不可行的。
translated by 谷歌翻译
我们描述了更改 - 联系机器人操作任务的框架,要求机器人与对象和表面打破触点。这种任务的不连续交互动态使得难以构建和使用单个动力学模型或控制策略,并且接触变化期间动态的高度非线性性质可能对机器人和物体造成损害。我们提出了一种自适应控制框架,使机器人能够逐步学习以预测更改联系人任务中的接触变化,从而了解了碎片连续系统的交互动态,并使用任务空间可变阻抗控制器提供平滑且精确的轨迹跟踪。我们通过实验比较我们框架的表现,以确定所需的代表性控制方法,以确定我们框架的自适应控制和增量学习组件需要在变化 - 联系机器人操纵任务中存在不连续动态的平稳控制。
translated by 谷歌翻译
用于移动操作的机器人平台需要满足许多对许多现实世界应用的两个矛盾要求:需要紧凑的基础才能通过混乱的室内环境导航,而支撑需要足够大以防止翻滚或小费,尤其是在快速操纵期间有效载荷或与环境有力互动的操作。本文提出了一种新颖的机器人设计,该设计通过多功能足迹来满足这两种要求。当操纵重物时,它可以将其足迹重新配置为狭窄的配置。此外,其三角形配置可通过防止支撑开关来在不平坦的地面上进行高精度任务。提出了一种模型预测控制策略,该策略统一计划和控制,以同时导航,重新配置和操纵。它将任务空间目标转换为新机器人的全身运动计划。提出的设计已通过硬件原型进行了广泛的测试。足迹重新配置几乎可以完全消除操纵引起的振动。控制策略在实验室实验和现实世界的施工任务中被证明有效。
translated by 谷歌翻译
我们解决了使四足机器人能够使用强化学习在现实世界中执行精确的射击技巧的问题。开发算法使腿部机器人能够向给定的目标射击足球,这是一个具有挑战性的问题,它将机器人运动控制和计划结合到一项任务中。为了解决这个问题,我们需要考虑控制动态腿部机器人期间的动态限制和运动稳定性。此外,我们需要考虑运动计划,以在地面上射击难以模拟的可变形球,并不确定摩擦到所需的位置。在本文中,我们提出了一个层次结构框架,该框架利用深厚的强化学习来训练(a)强大的运动控制政策,可以跟踪任意动议,以及(b)一项计划政策,以决定所需的踢球运动将足球射击到目标。我们将提议的框架部署在A1四足动物机器人上,使其能够将球准确地射击到现实世界中的随机目标。
translated by 谷歌翻译
对于移动机器人而言,与铰接式对象的交互是一项具有挑战性但重要的任务。为了应对这一挑战,我们提出了一条新型的闭环控制管道,该管道将负担能力估计的操纵先验与基于采样的全身控制相结合。我们介绍了完全反映了代理的能力和体现的代理意识提供的概念,我们表明它们的表现优于其最先进的对应物,这些对应物仅以最终效果的几何形状为条件。此外,发现闭环负担推论使代理可以将任务分为多个非连续运动,并从失败和意外状态中恢复。最后,管道能够执行长途移动操作任务,即在现实世界中开放和关闭烤箱,成功率很高(开放:71%,关闭:72%)。
translated by 谷歌翻译
通过腿部机器人在具有挑战性的环境上进行本地导航的通用方法需要路径计划,路径跟随和运动,这通常需要机动控制策略,以准确跟踪指挥速度。但是,通过将导航问题分解为这些子任务,我们限制了机器人的功能,因为各个任务不考虑完整的解决方案空间。在这项工作中,我们建议通过深入强化学习来训练端到端政策来解决完整的问题。机器人不必在提供的时间内到达目标位置,而不是不断跟踪预算的路径。该任务的成功仅在情节结束时进行评估,这意味着该策略不需要尽快到达目标。可以免费选择其路径和运动步态。以这种方式培训政策可以打开更多可能的解决方案,这使机器人能够学习更多复杂的行为。我们比较我们的速度跟踪方法,并表明任务奖励的时间依赖性对于成功学习这些新行为至关重要。最后,我们证明了在真正的四足动物机器人上成功部署政策。机器人能够跨越具有挑战性的地形,这是以前无法实现的,同时使用更节能的步态并达到更高的成功率。
translated by 谷歌翻译
该论文提出了一个计划者,以使用质心动力学和人形机器人的完整运动学来产生步行轨迹。机器人与行走表面之间的相互作用是通过新条件明确建模的,即\ emph {动态互补性约束}。该方法不需要预定义的接触序列,并自动生成脚步。我们通过一组任务来表征机器人控制目标,并通过解决最佳控制问题来解决它。我们表明,可以通过指定最小的参考集,例如恒定所需的质量速度中心和地面上的参考点来自动实现行走运动。此外,我们分析了接触模型选择如何影响计算时间。我们通过为人形机器人ICUB生成和测试步行轨迹来验证该方法。
translated by 谷歌翻译
现在,最先进的强化学习能够在模拟中学习双皮亚机器人的多功能运动,平衡和推送能力。然而,现实差距大多被忽略了,模拟结果几乎不会转移到真实硬件上。在实践中,它是不成功的,因为物理学过度简化,硬件限制被忽略,或者不能保证规律性,并且可能会发生意外的危险运动。本文提出了一个强化学习框架,该框架能够学习以平稳的开箱即用向现实的转移,仅需要瞬时的本体感受观察,可以学习强大的站立式恢复。通过结合原始的终止条件和政策平滑度调节,我们使用没有记忆力或观察历史的政策实现了稳定的学习,SIM转移和安全性。然后使用奖励成型来提供有关如何保持平衡的见解。我们展示了其在下LIMB医学外骨骼Atalante中的现实表现。
translated by 谷歌翻译
Reinforcement Learning (RL) has seen many recent successes for quadruped robot control. The imitation of reference motions provides a simple and powerful prior for guiding solutions towards desired solutions without the need for meticulous reward design. While much work uses motion capture data or hand-crafted trajectories as the reference motion, relatively little work has explored the use of reference motions coming from model-based trajectory optimization. In this work, we investigate several design considerations that arise with such a framework, as demonstrated through four dynamic behaviours: trot, front hop, 180 backflip, and biped stepping. These are trained in simulation and transferred to a physical Solo 8 quadruped robot without further adaptation. In particular, we explore the space of feed-forward designs afforded by the trajectory optimizer to understand its impact on RL learning efficiency and sim-to-real transfer. These findings contribute to the long standing goal of producing robot controllers that combine the interpretability and precision of model-based optimization with the robustness that model-free RL-based controllers offer.
translated by 谷歌翻译
由于有限的有效载荷能力有限,因此在山区环境中的救援任务几乎无法通过标准的腿部机器人或飞行机器人来实现。我们提出了一个新颖的概念,用于绳索攀岩机器人,该机器人可以谈判最新的斜坡并承担重载的有效载荷。机器人通过绳子固定在山上,并配备了一条腿来推向山上并开始跳跃动作。在跳跃之间,提升机被用来绕/放开绳索,以垂直移动并影响横向运动。这种简单的(但有效)的两倍致动,使系统能够实现高安全性和能源效率。确实,绳索可以防止机器人掉落,同时弥补了大部分重量,从而大大减少了腿部执行器所需的努力。我们还提出了一种最佳控制策略,以生成克服障碍的点对点轨迹。由于使用了自定义简化的机器人模型,我们可以实现快速计算时间($ <$ 1 s)。我们使用完整的机器人模型验证了凉亭模拟中生成的最佳运动,显示了提出的方法的有效性,并确认了我们概念的兴趣。最后,我们进行了可及性分析,表明可实现的目标区域受到脚壁接触的摩擦特性的强烈影响。
translated by 谷歌翻译
跳跃可能是克服小地形差距或障碍的有效运动方法。在本文中,我们提出了两种不同的方法,可以用类人形机器人进行跳跃。具体而言,从预定义的COM轨迹开始,我们开发了速度控制器的理论和基于优化技术评估关节输入的优化技术的扭矩控制器。在模拟和类人形机器人ICUB中,对控制器进行了测试。在模拟中,机器人能够使用两个控制器跳跃,而实际系统仅使用速度控制器跳跃。结果突出了控制质心动量的重要性,他们表明联合性能,即腿部和躯干关节的最大功率,以及低水平的控制性能是至关重要的,以实现可接受的结果。
translated by 谷歌翻译
我们介绍了基于学习的合规控制器,用于工业机器人的装配操作。我们提出了在从演示(LFD)中的一般环境中的一个解决方案,其中通过专家教师演示提供标称轨迹。这可以用于学习可以概括为组装中涉及的一个部件的新颖的技术的合适的表达,例如钉孔中的孔(PEG)插入任务。在期望中,在视觉或其他感测系统不完全准确地估计这种新颖的位置,机器人需要进一步修改产生的轨迹,以响应通过力 - 扭矩(F / T)传感器测量的力读数安装在机器人的手腕或另一个合适的位置。在组装期间遍历参考轨迹的恒定速度的假设,我们提出了一种新颖的容纳力控制器,其允许机器人安全地探索不同的接触配置。使用该控制器收集的数据用于训练高斯过程模型以预测栓地相对于目标孔的位置的未对准。我们表明所提出的基于学习的方法可以校正由PIH任务中组装部件之间的未对准引起的各种接触配置,在插入期间实现了高成功率。我们使用工业操纵器臂展示结果,并证明所提出的方法可以使用从培训的机器学习模型的力反馈来执行自适应插入。
translated by 谷歌翻译
在腿的运动中重新规划对于追踪所需的用户速度,在适应地形并拒绝外部干扰的同时至关重要。在这项工作中,我们提出并测试了实验中的实时非线性模型预测控制(NMPC),用于腿部机器人,以实现各种地形上的动态运动。我们引入了一种基于移动性的标准来定义NMPC成本,增强了二次机器人的运动,同时最大化腿部移动性并提高对地形特征的适应。我们的NMPC基于实时迭代方案,使我们能够以25美元的价格重新计划在线,\ Mathrm {Hz} $ 2 $ 2 $ 2美元的预测地平线。我们使用在质量框架中心中定义的单个刚体动态模型,以提高计算效率。在仿真中,测试NMPC以横穿一组不同尺寸的托盘,走进V形烟囱,并在崎岖的地形上招揽。在真实实验中,我们展示了我们的NMPC与移动功能的有效性,使IIT为87美元\,\ Mathrm {kg} $四分之一的机器人HIQ,以实现平坦地形上的全方位步行,横穿静态托盘,并适应在散步期间重新定位托盘。
translated by 谷歌翻译
在本文中,我们全能地提出了一种基于混合线性倒置的方法(H唇),用于合成和稳定3D足底双模行走,重点是彻底的硬件实现。提出了H-唇缘以捕获机器人行走的欠置和致动部分的基本组成部分。然后基于H唇直接合成机器人行走步态。我们全面地表征了H唇的周期性轨道,并通过其步骤 - 步骤(S2S)动力学可证明步骤稳定,然后用于近似于质量中心的水平状态的S2S动态(COM)机器人散步。近似设施基于H唇的步进控制器,提供所需的步长,以稳定机器人行走。通过实现所需的步骤尺寸,机器人实现了动态且稳定的行走。在欠扰动的BipeDal机器人Cassie的模拟和实验中完全评估了该方法,其展示了具有高通用和鲁棒性的动态行走行为。
translated by 谷歌翻译