机器人控制器的性能取决于其参数的选择,这需要仔细调整。在本文中,我们提出了DiFftune,这是一个新型,基于梯度的自动调整框架。我们的方法将动态系统和控制器作为计算图展开,并通过基于梯度的优化更新控制器参数。与常用的后传播方案不同,Difftune中的梯度是通过灵敏度传播获得的,这是一种与系统演化平行的前向模式自动分化技术。我们验证了杜宾汽车上提出的自动调节方法和在挑战性模拟环境中的四型旋转。仿真实验表明,该方法对于系统动力学和环境中的不确定性是可靠的,并且可以很好地推广到调整中看不见的轨迹。
translated by 谷歌翻译
Controller tuning is a vital step to ensure the controller delivers its designed performance. DiffTune has been proposed as an automatic tuning method that unrolls the dynamical system and controller into a computational graph and uses auto-differentiation to obtain the gradient for the controller's parameter update. However, DiffTune uses the vanilla gradient descent to iteratively update the parameter, in which the performance largely depends on the choice of the learning rate (as a hyperparameter). In this paper, we propose to use hyperparameter-free methods to update the controller parameters. We find the optimal parameter update by maximizing the loss reduction, where a predicted loss based on the approximated state and control is used for the maximization. Two methods are proposed to optimally update the parameters and are compared with related variants in simulations on a Dubin's car and a quadrotor. Simulation experiments show that the proposed first-order method outperforms the hyperparameter-based methods and is more robust than the second-order hyperparameter-free methods.
translated by 谷歌翻译
过去半年来,从控制和强化学习社区的真实机器人部署的安全学习方法的贡献数量急剧上升。本文提供了一种简洁的但整体审查,对利用机器学习实现的最新进展,以实现在不确定因素下的安全决策,重点是统一控制理论和加固学习研究中使用的语言和框架。我们的评论包括:基于学习的控制方法,通过学习不确定的动态,加强学习方法,鼓励安全或坚固性的加固学习方法,以及可以正式证明学习控制政策安全的方法。随着基于数据和学习的机器人控制方法继续获得牵引力,研究人员必须了解何时以及如何最好地利用它们在安全势在必行的现实情景中,例如在靠近人类的情况下操作时。我们突出了一些开放的挑战,即将在未来几年推动机器人学习领域,并强调需要逼真的物理基准的基准,以便于控制和加固学习方法之间的公平比较。
translated by 谷歌翻译
该论文提出了两种控制方法,用于用微型四轮驱动器进行反弹式操纵。首先,对专门为反转设计设计的现有前馈控制策略进行了修订和改进。使用替代高斯工艺模型的贝叶斯优化通过在模拟环境中反复执行翻转操作来找到最佳运动原语序列。第二种方法基于闭环控制,它由两个主要步骤组成:首先,即使在模型不确定性的情况下,自适应控制器也旨在提供可靠的参考跟踪。控制器是通过通过测量数据调整的高斯过程来增强无人机的标称模型来构建的。其次,提出了一种有效的轨迹计划算法,该算法仅使用二次编程来设计可行的轨迹为反弹操作设计。在模拟和使用BitCraze Crazyflie 2.1四肢旋转器中对两种方法进行了分析。
translated by 谷歌翻译
Accurate path following is challenging for autonomous robots operating in uncertain environments. Adaptive and predictive control strategies are crucial for a nonlinear robotic system to achieve high-performance path following control. In this paper, we propose a novel learning-based predictive control scheme that couples a high-level model predictive path following controller (MPFC) with a low-level learning-based feedback linearization controller (LB-FBLC) for nonlinear systems under uncertain disturbances. The low-level LB-FBLC utilizes Gaussian Processes to learn the uncertain environmental disturbances online and tracks the reference state accurately with a probabilistic stability guarantee. Meanwhile, the high-level MPFC exploits the linearized system model augmented with a virtual linear path dynamics model to optimize the evolution of path reference targets, and provides the reference states and controls for the low-level LB-FBLC. Simulation results illustrate the effectiveness of the proposed control strategy on a quadrotor path following task under unknown wind disturbances.
translated by 谷歌翻译
本文提出了一种校准控制参数的方法。这种控制参数的示例是PID控制器的增益,优化控制的成本函数的权重,过滤器系数,滑动模式控制器的滑动表面,或神经网络的权重。因此,所提出的方法可以应用于各种控制器。该方法使用闭环系统操作数据来估计控制参数而不是系统状态的卡尔曼滤波器。控制参数校准由训练目标驱动,其包括对动态系统性能的规范。校准方法在线和强大地调整参数,是计算效率,具有低数据存储要求,并且易于实现对许多实时应用的吸引力。仿真结果表明,该方法能够快速学习控制参数(闭环成本的平均衰减因子大约24%),能够调整参数来补偿干扰(跟踪精度的提高约29%),并且是坚固的噪音。此外,具有高保真车辆模拟器Carim的仿真研究表明,该方法可以在线校准复杂动态系统的控制器,这表明其对现实世界的适用性。
translated by 谷歌翻译
为设计控制器选择适当的参数集对于最终性能至关重要,但通常需要一个乏味而仔细的调整过程,这意味着强烈需要自动调整方法。但是,在现有方法中,无衍生物的可扩展性或效率低下,而基于梯度的方法可能由于可能是非差异的控制器结构而无法使用。为了解决问题,我们使用新颖的无衍生化强化学习(RL)框架来解决控制器调整问题,该框架在经验收集过程中在参数空间中执行时间段的扰动,并将无衍生策略更新集成到高级参与者 - 批判性RL中实现高多功能性和效率的体系结构。为了证明该框架的功效,我们在自动驾驶的两个具体示例上进行数值实验,即使用PID控制器和MPC控制器进行轨迹跟踪的自适应巡航控制。实验结果表明,所提出的方法的表现优于流行的基线,并突出了其强大的控制器调整潜力。
translated by 谷歌翻译
由于存在动态变化,在标称环境中培训的强化学习(RL)策略可能在新的/扰动环境中失败。现有的强大方法通过强大或对冲培训,为所有设想的动态变化方案获得固定策略。由于强调最坏情况,这些方法可能导致保守表现,并且往往涉及对培训环境的繁琐修改。我们提出了一种方法来强制使用$ \ Mathcal {L} _1 $自适应控制的预先训练的非强大RL策略。利用$ \ mathcal {l} _1 $控制法在快速估计和主动补偿的动态变化中的能力中,我们的方法可以显着提高标准(即非鲁棒)方式培训的RL策略的鲁棒性,无论是在模拟器还是在现实世界中。提供了数值实验以验证所提出的方法的功效。
translated by 谷歌翻译
近年来,强化学习和基于学习的控制以及对他们的安全性的研究,这对于在现实世界机器人中的部署至关重要 - 都获得了重大的吸引力。但是,为了充分评估新结果的进度和适用性,我们需要工具来公平地比较控制和强化学习界提出的方法。在这里,我们提出了一个新的开源基准套件,称为“安全控制”套件,支持基于模型和基于数据的控制技术。我们为三个动态系统(Cart-Pole,1D和2D四极管)提供实现,以及两个控制任务 - 稳定和轨迹跟踪。我们建议扩展OpenAi的Gym API - 强化学习研究的事实上的标准 - (i)能够指定(和查询)符号动态和(ii)约束,以及(iii)(重复)(重复)在控制输入​​,状态测量和惯性特性。为了证明我们的建议并试图使研究社区更加紧密地结合在一起,我们展示了如何使用安全控制的gym定量比较传统控制领域的多种方法的控制绩效,数据效率和安全性控制和加强学习。
translated by 谷歌翻译
模型预测控制(MPC)表明了控制诸如腿机器人等复杂系统的巨大成功。然而,在关闭循环时,在每个控制周期解决的有限范围最佳控制问题(OCP)的性能和可行性不再保证。这是由于模型差异,低级控制器,不确定性和传感器噪声的影响。为了解决这些问题,我们提出了一种修改版本,该版本的标准MPC方法用于带有活力的腿运动(弱向不变性)保证。在这种方法中,代替向问题添加(保守)终端约束,我们建议使用投影到在每个控制周期的OCP中的可行性内核中投影的测量状态。此外,我们使用过去的实验数据来找到最佳成本重量,该重量测量性能,约束满足鲁棒性或稳定性(不变性)的组合。这些可解释的成本衡量了稳健性和性能之间的贸易。为此目的,我们使用贝叶斯优化(BO)系统地设计实验,有助于有效地收集数据以了解导致强大性能的成本函数。我们的模拟结果具有不同的现实干扰(即外部推动,未铭出的执行器动态和计算延迟)表明了我们为人形机器人创造了强大的控制器的方法的有效性。
translated by 谷歌翻译
在这项工作中,我们考虑使用应用于四逆床控制的模型预测控制(MPC)导出和加入准确动态模型的问题。 MPC依赖于精确的动态模型来实现所需的闭环性能。然而,在复杂系统中存在不确定性以及他们在其运行的环境中的存在在获得对系统动态的充分准确表示方面构成挑战。在这项工作中,我们利用深度学习工具,基于知识的神经常规方程(KNODE),增强了从第一原理获得的模型。由此产生的混合模型包括来自模拟或现实世界实验数据的标称第一原理模型和神经网络。使用四轮压力机,我们将混合模型用于针对最先进的高斯过程(GP)模型,并表明混合模型提供了Quadrotor动态的更准确的预测,并且能够概括超出训练数据。为了提高闭环性能,混合模型集成到新的MPC框架中,称为KNODE-MPC。结果表明,就轨迹跟踪性能而言,综合框架在物理实验中达到了60.2%的仿真和21%以上。
translated by 谷歌翻译
敏锐环境中的敏捷四号飞行有可能彻底改变运输,运输和搜索和救援应用。非线性模型预测控制(NMPC)最近显示了敏捷四足电池控制的有希望的结果,但依赖于高度准确的模型以获得最大性能。因此,模拟了非模型复杂空气动力学效果,不同有效载荷和参数错配的形式的不确定性将降低整体系统性能。本文提出了L1-NMPC,一种新型混合自适应NMPC,用于在线学习模型不确定性,并立即弥补它们,大大提高了与非自适应基线的性能,最小计算开销。我们所提出的体系结构推广到许多不同的环境,我们评估风,未知的有效载荷和高度敏捷的飞行条件。所提出的方法展示了巨大的灵活性和鲁棒性,在大未知干扰下的非自适应NMPC和没有任何增益调整的情况下,超过90%的跟踪误差减少。此外,相同的控制器具有相同的增益可以准确地飞行高度敏捷的赛车轨迹,该轨迹展示最高速度为70公里/小时,相对于非自适应NMPC基线提供约50%的跟踪性能提高。
translated by 谷歌翻译
本文介绍了一种用于自主车辆的耦合,神经网络辅助纵向巡航和横向路径跟踪控制器,具有模型不确定性和经历未知的外部干扰。使用反馈误差学习机制,采用利用自适应径向基函数(RBF)神经网络的反向车辆动态学习方案,称为扩展的最小资源分配网络(EMRAN)。 EMRAN使用扩展的卡尔曼滤波器进行在线学习和体重更新,并采用了一种越来越多的/修剪策略,用于维护紧凑的网络,以便更容易地实现。在线学习算法处理参数化不确定性,并消除了未知干扰在道路上的影响。结合用于提高泛化性能的自我调节学习方案,所提出的EMRAN辅助控制架构辅助基本PID巡航和斯坦利路径跟踪控制器以耦合的形式。与传统的PID和斯坦利控制器相比,其对各种干扰和不确定性的性能和鲁棒性以及与基于模糊的PID控制器和主动扰动抑制控制(ADRC)方案的比较。慢速和高速场景介绍了仿真结果。根均线(RMS)和最大跟踪误差清楚地表明提出的控制方案在未知环境下实现自动车辆中更好的跟踪性能的有效性。
translated by 谷歌翻译
Learning-enabled control systems have demonstrated impressive empirical performance on challenging control problems in robotics, but this performance comes at the cost of reduced transparency and lack of guarantees on the safety or stability of the learned controllers. In recent years, new techniques have emerged to provide these guarantees by learning certificates alongside control policies -- these certificates provide concise, data-driven proofs that guarantee the safety and stability of the learned control system. These methods not only allow the user to verify the safety of a learned controller but also provide supervision during training, allowing safety and stability requirements to influence the training process itself. In this paper, we provide a comprehensive survey of this rapidly developing field of certificate learning. We hope that this paper will serve as an accessible introduction to the theory and practice of certificate learning, both to those who wish to apply these tools to practical robotics problems and to those who wish to dive more deeply into the theory of learning for control.
translated by 谷歌翻译
在过去的十年中,由于分散控制应用程序的趋势和网络物理系统应用的出现,网络控制系统在过去十年中引起了广泛的关注。但是,由于无线网络的复杂性质,现实世界中无线网络控制系统的通信带宽,可靠性问题以及对网络动态的认识不足。将机器学习和事件触发的控制结合起来有可能减轻其中一些问题。例如,可以使用机器学习来克服缺乏网络模型的问题,通过学习系统行为或通过不断学习模型动态来适应动态变化的模型。事件触发的控制可以通过仅在必要时或可用资源时传输控制信息来帮助保护通信带宽。本文的目的是对有关机器学习的使用与事件触发的控制的使用进行综述。机器学习技术,例如统计学习,神经网络和基于强化的学习方法,例如深入强化学习,并结合事件触发的控制。我们讨论如何根据机器学习使用的目的将这些学习算法用于不同的应用程序。在对文献的审查和讨论之后,我们重点介绍了与基于机器学习的事件触发的控制并提出潜在解决方案相关的开放研究问题和挑战。
translated by 谷歌翻译
估计和对外部干扰的反应对于二次驾驶的稳健飞行控制至关重要。现有的估计器通常需要针对特定​​的飞行方案或具有大量现实世界数据的培训进行重大调整,以实现令人满意的性能。在本文中,我们提出了一个神经移动范围估计器(Neuromhe),该估计量可以自动调整由神经网络建模并适应不同飞行方案的MHE参数。我们通过将MHE估计值的分析梯度推导出相对于可调参数的分析梯度实现这一目标,从而使MHE无缝嵌入作为神经网络中的无缝嵌入以进行高效学习。最有趣的是,我们证明可以从递归形式的卡尔曼过滤器有效地解决梯度。此外,我们开发了一种基于模型的策略梯度算法,可以直接从轨迹跟踪误差中训练神经元,而无需进行基础真相干扰。通过在各种具有挑战性的飞行中对四摩特的模拟和物理实验,通过模拟和物理实验对神经元的有效性进行了广泛的验证。值得注意的是,NeuroMhe的表现优于最先进的估计器,仅使用2.5%的参数量,力估计误差降低了49.4%。所提出的方法是一般的,可以应用于其他机器人系统的稳健自适应控制。
translated by 谷歌翻译
由于存在动态变化,在标称环境中培训的强化学习(RL)控制策略可能在新的/扰动环境中失败。为了控制具有连续状态和动作空间的系统,我们提出了一种加载方法,通过使用$ \ mathcal {l} _ {1} $自适应控制器($ \ mathcal {l} _{1} $ AC)。利用$ \ mathcal {l} _ {1} $ AC的能力进行快速估计和动态变化的主动补偿,所提出的方法可以提高RL策略的稳健性,该策略在模拟器或现实世界中培训不考虑广泛的动态变化。数值和现实世界实验经验证明了所提出的方法在使用无模型和基于模型的方法训练的RL政策中的强制性策略的功效。用于真正的拼图设置实验的视频是可用的://youtu.be/xgob9vpyuge。
translated by 谷歌翻译
随着机器人在现实世界中冒险,他们受到无意义的动态和干扰。在相对静态和已知的操作环境中已成功地证明了基于传统的基于模型的控制方法。但是,当机器人的准确模型不可用时,基于模型的设计可能导致次优甚至不安全的行为。在这项工作中,我们提出了一种桥接模型 - 现实差距的方法,并且即使存在动态不确定性,也能够应用基于模型的方法。特别地,我们介绍基于学习的模型参考适应方法,其使机器人系统具有可能不确定的动态,表现为预定义的参考模型。反过来,参考模型可用于基于模型的控制器设计。与典型的模型参考调整控制方法相比,我们利用神经网络的代表性力量来捕获高度非线性动力学的不确定性,并通过在称为Lipschitz网络的特殊类型神经网络的建筑设计中编码认证嘴唇条件来捕获高度非线性动力学的不确定性和保证稳定性。即使我们的关于真正的机器人系统的先验知识有限,我们的方法也适用于一般的非线性控制仿射系统。我们展示了我们在飞行倒置摆的方法中的方法,其中一个搁板的四轮电机被挑战,以平衡倒挂摆在悬停或跟踪圆形轨迹时。
translated by 谷歌翻译
现代机器人系统具有卓越的移动性和机械技能,使其适合在现实世界场景中使用,其中需要与重物和精确的操纵能力进行互动。例如,具有高有效载荷容量的腿机器人可用于灾害场景,以清除危险物质或携带受伤的人。因此,可以开发能够使复杂机器人能够准确地执行运动和操作任务的规划算法。此外,需要在线适应机制,需要新的未知环境。在这项工作中,我们强加了模型预测控制(MPC)产生的最佳状态输入轨迹满足机器人系统自适应控制中的Lyapunov函数标准。因此,我们将控制Lyapunov函数(CLF)提供的稳定性保证以及MPC在统一的自适应框架中提供的最优性,在机器人与未知对象的交互过程中产生改进的性能。我们验证了携带未建模有效载荷和拉重盒子的四足机器人的仿真和硬件测试中提出的方法。
translated by 谷歌翻译
机器人等系统的安全操作要求它们计划和执行受安全约束的轨迹。当这些系统受到动态的不确定性的影响时,确保不违反限制是具有挑战性的。本文提出了基于受约束差分动态规划(DDP)的附加不确定性和非线性安全约束的安全轨迹,安全轨迹优化和控制方法。在其运动中的机器人的安全性被制定为机会限制了用户所选择的约束满足的概率。通过约束收紧将机会约束转换为DDP制剂中的确定性。为了避免在约束期间的过保守,从受约束的DDP导出的反馈策略的线性控制增益用于预测中的闭环不确定性传播的近似。所提出的算法在三种不同的机器人动态上进行了经验评估,模拟中具有高达12度的自由度。使用物理硬件实现对方法的计算可行性和适用性进行了说明。
translated by 谷歌翻译