最佳控制是一种成功的方法,可以为复杂机器人产生运动,特别是对于有腿运动。然而,这些技术往往太慢而无法实时运行,以便模型预测控制或者需要大大简化动力学模型。在这项工作中,我们展示了一种学习来预测问题值函数的梯度和Hessian的方法,可以用一步二次程序来快速解决预测控制问题。此外,我们的方法能够满足像摩擦锥和单侧约束的约束,这对于高动态机器机器任务很重要。我们展示了我们在模拟中的方法和实际的四轮车机器人执行小跑和边界运动的能力。
translated by 谷歌翻译
由于机器人动力学中的固有非线性,腿部机器人全身动作的在线计划具有挑战性。在这项工作中,我们提出了一个非线性MPC框架,该框架可以通过有效利用机器人动力学结构来在线生成全身轨迹。Biconmp用于在真正的四倍机器人上生成各种环状步态,其性能在不同的地形上进行了评估,对抗不同步态之间的不可预见的推动力并在线过渡。此外,提出了双孔在机器人上产生非平凡无环的全身动态运动的能力。同样的方法也被用来在人体机器人(TALOS)上产生MPC的各种动态运动,并在模拟中产生另一个四倍的机器人(Anymal)。最后,报告并讨论了对计划范围和频率对非线性MPC框架的影响的广泛经验分析。
translated by 谷歌翻译
在腿部机器人技术中,计划和执行敏捷的机动演习一直是一个长期的挑战。它需要实时得出运动计划和本地反馈政策,以处理动力学动量的非物质。为此,我们提出了一个混合预测控制器,该控制器考虑了机器人的致动界限和全身动力学。它将反馈政策与触觉信息相结合,以在本地预测未来的行动。由于采用可行性驱动的方法,它在几毫秒内收敛。我们的预测控制器使Anymal机器人能够在现实的场景中生成敏捷操作。关键要素是跟踪本地反馈策略,因为与全身控制相反,它们达到了所需的角动量。据我们所知,我们的预测控制器是第一个处理驱动限制,生成敏捷的机动操作以及执行低级扭矩控制的最佳反馈策略,而无需使用单独的全身控制器。
translated by 谷歌翻译
模型预测控制(MPC)是控制机器人的流行策略,但由于混合动力学的复杂性质,很难接触系统。为了实现具有联系的系统,动态模型通常被简化或及时固定,以便有效地计划轨迹。在这项工作中,我们将混合迭代线性二次调节器扩展到以MPC方式(HILQR MPC)工作的1)通过1)修改触点模式时如何计算成本函数,2)在模拟刚体动态和3时使用并行处理。 )使用刚体动力学的有效分析衍生化计算。结果是一个可以修改参考行为的接触顺序并凝聚力计划的系统 - 在处理大型扰动时至关重要。 HILQR MPC在两个系统上进行了测试:首先,在简单的驱动弹跳球混合系统上验证了混合成本修改。然后将HILQR MPC与在四倍的机器人(Unitree A1)上使用质心动态假设的方法进行比较。 HILQR MPC在模拟和硬件测试中的表现优于质心方法。
translated by 谷歌翻译
在粗糙的地形上的动态运动需要准确的脚部放置,避免碰撞以及系统的动态不足的计划。在存在不完美且常常不完整的感知信息的情况下,可靠地优化此类动作和互动是具有挑战性的。我们提出了一个完整的感知,计划和控制管道,可以实时优化机器人所有自由度的动作。为了减轻地形所带来的数值挑战,凸出不平等约束的顺序被提取为立足性可行性的局部近似值,并嵌入到在线模型预测控制器中。每个高程映射预先计算了步骤性分类,平面分割和签名的距离场,以最大程度地减少优化过程中的计算工作。多次射击,实时迭代和基于滤波器的线路搜索的组合用于可靠地以高速率解决该法式问题。我们在模拟中的间隙,斜率和踏上石头的情况下验证了所提出的方法,并在Anymal四倍的平台上进行实验,从而实现了最新的动态攀登。
translated by 谷歌翻译
在这封信中,我们提出了一种多功能的层次离线计划算法,以及用于敏捷四足球运动的在线控制管道。我们的离线规划师在优化降低阶模型和全身轨迹优化的质心动力学之间进行交替,以实现动力学共识。我们使用等椭圆形参数化的新型动量惰性质地优化能够通过``惯性塑造''来产生高度的杂技运动。我们的全身优化方法可显着改善基于标准DDP的方法的质量从质心层中利用反馈。对于在线控制,我们通过完整的质心动力学的线性转换开发了一种新颖的凸模型预测控制方案。我们的控制器可以在单个优化中有效地对接触力和关节加速度有效地优化,从而实现更直接的加速度,从而实现更直接的优化与现有四倍体MPC控制器相比,跟踪动量丰富的动作。我们在四个不同的动态操作中证明了我们的轨迹计划者的能力和通用性。然后,我们在MIT MINI Cheetah平台上展示了​​一个硬件实验,以证明整个计划的性能和整个计划的性能和性能扭曲的控制管道跳动。
translated by 谷歌翻译
The ability to generate dynamic walking in real-time for bipedal robots with input constraints and underactuation has the potential to enable locomotion in dynamic, complex and unstructured environments. Yet, the high-dimensional nature of bipedal robots has limited the use of full-order rigid body dynamics to gaits which are synthesized offline and then tracked online. In this work we develop an online nonlinear model predictive control approach that leverages the full-order dynamics to realize diverse walking behaviors. Additionally, this approach can be coupled with gaits synthesized offline via a desired reference to enable a shorter prediction horizon and rapid online re-planning, bridging the gap between online reactive control and offline gait planning. We demonstrate the proposed method, both with and without an offline gait, on the planar robot AMBER-3M in simulation and on hardware.
translated by 谷歌翻译
在腿的运动中重新规划对于追踪所需的用户速度,在适应地形并拒绝外部干扰的同时至关重要。在这项工作中,我们提出并测试了实验中的实时非线性模型预测控制(NMPC),用于腿部机器人,以实现各种地形上的动态运动。我们引入了一种基于移动性的标准来定义NMPC成本,增强了二次机器人的运动,同时最大化腿部移动性并提高对地形特征的适应。我们的NMPC基于实时迭代方案,使我们能够以25美元的价格重新计划在线,\ Mathrm {Hz} $ 2 $ 2 $ 2美元的预测地平线。我们使用在质量框架中心中定义的单个刚体动态模型,以提高计算效率。在仿真中,测试NMPC以横穿一组不同尺寸的托盘,走进V形烟囱,并在崎岖的地形上招揽。在真实实验中,我们展示了我们的NMPC与移动功能的有效性,使IIT为87美元\,\ Mathrm {kg} $四分之一的机器人HIQ,以实现平坦地形上的全方位步行,横穿静态托盘,并适应在散步期间重新定位托盘。
translated by 谷歌翻译
模型预测控制(MPC)方法被广泛用于机器人技术,因为它们允许在机器人移动时计算更新的轨迹。他们通常需要启发式参考,以进行跟踪术语和成本功能参数的正确调整,以便获得良好的性能。例如,当腿部机器人必须对环境的干扰(例如,推动后恢复)或以静态不稳定步态跟踪某个目标时,算法的有效性会降解。在这项工作中,我们提出了一个新型基于优化的参考生成器,名为州长,该发电机利用线性倒置的摆模型来计算质量中心的参考轨迹,同时考虑了步态的可能不足(例如,在小跑中)。获得的轨迹用作我们先前工作中提出的非线性MPC成本函数的参考[1]。我们还提出了一个公式,可以保证一定的响应时间达到目​​标,而无需调整成本条款的权重。此外,校正了立足点以将机器人朝目标推动。我们证明了在与Aliengo机器人不同情况下的模拟和实验中,我们的方法的有效性。
translated by 谷歌翻译
差分动态编程(DDP)是用于轨迹优化的直接单射击方法。它的效率来自对时间结构的开发(最佳控制问题固有的)和系统动力学的明确推出/集成。但是,它具有数值不稳定,与直接多个射击方法相比,它的初始化选项有限(允许对控件的初始化,但不能对状态进行初始化),并且缺乏对控制约束的正确处理。在这项工作中,我们采用可行性驱动的方法来解决这些问题,该方法调节数值优化过程中的动态可行性并确保控制限制。我们的可行性搜索模拟了只有动态约束的直接多重拍摄问题的数值解决。我们证明我们的方法(命名为box-fddp)具有比Box-DDP+(单个射击方法)更好的数值收敛性,并且其收敛速率和运行时性能与使用The Solded Sound的最新直接转录配方竞争内部点和主动集算法在Knitro中提供。我们进一步表明,Box-FDP可以单调地降低动态可行性误差 - 与最先进的非线性编程算法相同。我们通过为四足动物和人形机器人产生复杂而运动的运动来证明我们的方法的好处。最后,我们强调说,Box-FDDP适用于腿部机器人中的模型预测控制。
translated by 谷歌翻译
我们提出了一种基于差分动态编程框架的算法,以处理轨迹优化问题,其中地平线在线确定而不是修复先验。该算法表现出直线,二次,时间不变问题的精确一步收敛,并且足够快,以便实时非线性模型预测控制。我们在离散时间案例中显示了非线性算法的派生,并将该算法应用于各种非线性问题。最后,我们展示了与标准MPC控制器相比的最佳地平线模型预测控制方案在平面机器人的障碍避免问题上的功效。
translated by 谷歌翻译
使用逆动力学的最佳控制(OC)提供了数值益处,例如粗略优化,更便宜的衍生物计算和高收敛速率。但是,为了利用腿部机器人的模型预测控制(MPC)中的这些好处,有效处理其大量平等约束至关重要。为此,我们首先(i)提出了一种新的方法来处理基于NullSpace参数化的平等约束。我们的方法可以适当地平衡最优性,以及动态和平等构成可行性,从而增加了吸引到良好本地最小值的盆地。为此,我们(ii)(ii)通过合并功能功能来调整以可行性为导向的搜索。此外,我们介绍了(iii)的(iii)对考虑任意执行器模型的反向动力学的凝结公式。我们还基于感知运动框架中基于反向动力学的新型MPC(iv)。最后,我们提出(v)最佳控制与正向动力学和逆动力学的理论比较,并通过数值评估。我们的方法使逆动力学MPC在硬件上首次应用,从而在Anymal机器人上进行了最新的动态攀登。我们在广泛的机器人问题上进行基准测试,并产生敏捷和复杂的动作。我们显示了我们的无空间分辨率和凝结配方的计算降低(高达47.3%)。我们通过以高收敛速率解决粗略优化问题(最多10 Hz离散化)来提供方法的益处。我们的算法在Crocoddyl内公开可用。
translated by 谷歌翻译
This paper presents a state-of-the-art optimal controller for quadruped locomotion. The robot dynamics is represented using a single rigid body (SRB) model. A linear time-varying model predictive controller (LTV MPC) is proposed by using linearization schemes. Simulation results show that the LTV MPC can execute various gaits, such as trot and crawl, and is capable of tracking desired reference trajectories even under unknown external disturbances. The LTV MPC is implemented as a quadratic program using qpOASES through the CasADi interface at 50 Hz. The proposed MPC can reach up to 1 m/s top speed with an acceleration of 0.5 m/s2 executing a trot gait. The implementation is available at https:// github.com/AndrewZheng-1011/Quad_ConvexMPC
translated by 谷歌翻译
我们专注于开发Quadrupedal机器人节能控制器的问题。动物可以以不同的速度积极切换Gaits以降低其能量消耗。在本文中,我们设计了一个分层学习框架,其中独特的运动遗传仪和自然步态过渡自动出现,其能量最小化的简单奖励。我们使用进化策略来培训一个高级步态政策,指定每只脚的步态图案,而低级凸MPC控制器优化电机命令,以便机器人可以使用该步态图案以所需的速度行走。我们在四足机器人上测试我们的学习框架,并展示了自动步态过渡,从步行到小跑和飞行,因为机器人增加了速度。我们表明学习的等级控制器在广泛的运动速度范围内消耗的能量要少于基线控制器。
translated by 谷歌翻译
强化学习(RL)见证了四足动物的大步进展,在可靠的SIM转移到现实的政策转移方面持续进展。但是,重用另一个机器人的政策仍然是一个挑战,这可以节省重新培训的时间。在这项工作中,我们提出了一个用于零射击政策重新定位的框架,其中可以在不同形状和尺寸的机器人之间转移多种运动技能。新框架以系统整合RL和模型预测控制(MPC)的计划和控制管道为中心。计划阶段采用RL来生成动态合理的轨迹以及联系时间表,避免了接触序列优化的组合复杂性。然后,将这些信息用于播种MPC,以通过新的混合运动动力学(HKD)模型稳定和鲁棒性地推出策略,该模型隐含地优化了立足点位置。硬件结果表明能够将政策从A1和Laikago机器人转移到MIT MIT MINI CHEETAH机器人,而无需重新调整政策。
translated by 谷歌翻译
接触式轨迹优化提供了一种具有吸引力的方法,可以自动生成用于机器人操纵和运动的复杂和接触型行为。但是,由于确保数值可靠性和物理现实主义的挑战,这种技术的可伸缩性受到限制。在本文中,我们提出了初步结果,表明迭代线性二次调节器(ILQR)算法以及最近提出的基于压力场的水力弹性接触模型可以通过接触实现可靠和物理上现实的轨迹优化。我们使用这种方法来合成富含接触的行为,例如四足动物和全臂操纵。此外,Kinova Gen3机器人臂上的开环播放证明了全臂操纵轨迹的身体精度。代码可在https://bit.ly/ilqr_hc上找到,可以在https://youtu.be/iqxjkbm8_ms上找到视频。
translated by 谷歌翻译
通常,通过解决轨迹优化问题并使用跟踪控制器来执行轨迹,通常在四足机器人上实现了专业运动。这种方法与通常通过在线重新计划控制常规步态的模型预测控制(MPC)策略平行。在这项工作中,我们提出了一种非线性MPC(NMPC)技术,该技术可以在统一框架内自然地重新计划专门运动技能和常规运动。 NMPC有关混合动力学模型的原因,并使用约束差分动态编程(DDP)求解器的变体来解决。拟议的NMPC使机器人能够发挥各种敏捷技能,例如跳跃,边界和小跑,以及这些技能之间的快速过渡。我们通过三个具有挑战性的运动序列评估了提出的算法,这些算法将多个敏捷技能结合在两个四倍的平台,即Unitree A1和MIT Mini Cheetah上,显示了其有效性和通用性。
translated by 谷歌翻译
Legged robots pose one of the greatest challenges in robotics. Dynamic and agile maneuvers of animals cannot be imitated by existing methods that are crafted by humans. A compelling alternative is reinforcement learning, which requires minimal craftsmanship and promotes the natural evolution of a control policy. However, so far, reinforcement learning research for legged robots is mainly limited to simulation, and only few and comparably simple examples have been deployed on real systems. The primary reason is that training with real robots, particularly with dynamically balancing systems, is complicated and expensive. In the present work, we report a new method for training a neural network policy in simulation and transferring it to a state-of-the-art legged system, thereby we leverage fast, automated, and cost-effective data generation schemes. The approach is applied to the ANYmal robot, a sophisticated medium-dog-sized quadrupedal system. Using policies trained in simulation, the quadrupedal machine achieves locomotion skills that go beyond what had been achieved with prior methods: ANYmal is capable of precisely and energy-efficiently following high-level body velocity commands, running faster than ever before, and recovering from falling even in complex configurations.
translated by 谷歌翻译
这项工作介绍了模型预测控制(MPC)的公式,该公式适应基于任务的模型的复杂性,同时保持可行性和稳定性保证。现有的MPC实现通常通过缩短预测范围或简化模型来处理计算复杂性,这两者都可能导致不稳定。受到行为经济学,运动计划和生物力学相关方法的启发,我们的方法通过简单模型解决了MPC问题,用于在地平线区域的动力学和约束,而这种模型是可行的,并且不存在该模型的复杂模型。该方法利用计划和执行的交织来迭代识别这些区域,如果它们满足确切的模板/锚关系,可以安全地简化这些区域。我们表明,该方法不会损害系统的稳定性和可行性特性,并在仿真实验中衡量在四足动物上执行敏捷行为的仿真实验中的性能。我们发现,与固定复杂性实现相比,这种自适应方法可以实现更多的敏捷运动,并扩大可执行任务的范围。
translated by 谷歌翻译
机器人设计优化,模仿学习和系统标识共享一个常见的问题,该问题需要对机器人或任务参数进行优化,同时在优化机器人运动的同时。为了解决这些问题,我们可以使用可区分的最佳控制,以使机器人运动相对于参数的运动的梯度。我们提出了一种通过敏感性分析(SA)通过差分动态编程(DDP)算法进行分析分析计算这些梯度的方法。我们表明,计算梯度时必须包括二阶动力学项。但是,在计算运动时,我们不需要包括它们。我们验证我们在摆和双摆系统上的方法。此外,我们比较使用使用迭代线性二次调节器(ILQR)的衍生物,该线性二次调节器(ILQR)在Kinova ARM的共同设计任务上忽略了这些二阶术语,我们在其中优化了目标机器人的链路长度达到任务。我们表明,使用ILQR梯度忽略二阶动力学的优化会影响衍生物的计算。取而代之的是,使用DDP梯度优化,对于一系列初始设计,使我们的公式扩展到复杂的系统。
translated by 谷歌翻译