当机器人在具有非结构化地形的现实世界越野环境中运行时,适应其导航政策的能力对于有效且安全的导航至关重要。但是,越野地形为机器人导航带来了一些挑战,包括动态障碍和地形不确定性,导致遍历或导航故障效率低下。为了应对这些挑战,我们通过谈判引入了一种新颖的适应方法,使地面机器人能够通过谈判过程来调整其导航行为。我们的方法首先学习了各种导航政策的预测模型,以充当地形感知的本地控制器和计划者。然后,通过新的谈判过程,我们的方法从与环境的各种政策互动中学习,以在线方式达成最佳政策组合,以使机器人导航适应即时的非结构性越野地形。此外,我们实施了一种新的优化算法,该算法为执行过程中实时实时提供机器人谈判提供了最佳解决方案。实验结果已经验证了我们通过谈判的适应方法优于机器人导航的先前方法,尤其是在看不见和不确定的动态地形上。
translated by 谷歌翻译
地面机器人需要遍历非结构化和毫无准备的地形的关键能力,避免障碍,以完成灾害响应的现实机器人应用中的完整任务。当机器人在诸如森林等越野场环境中运行时,机器人的实际行为通常与其预期或计划的行为相匹配,这是由于地形和机器人本身的特征的变化。因此,机器人适应对于一致行为生成的能力对于非结构化的越野地形上的可动性至关重要。为了解决挑战,我们提出了一种新颖的自我反思地形感知的方法,用于造型机器人的自我反思,以产生一致的控制,以导航非结构化的越野地形,这使得机器人能够通过机器人自我进行更准确地执行预期行为。反思,同时适应不同的非结构化地形。为了评估我们的方法的性能,我们使用具有各种功能的实际机器人进行广泛的实验,这些功能在不同的非结构化越野地形上变化。综合实验结果表明,我们的自我反光地形感知的适应方法使得地机器人能够产生一致的导航行为,并且优于比较的先前和基线技术。
translated by 谷歌翻译
我们向连续状态马尔可夫决策过程(MDP)提出了一种扩散近似方法,该方法可用于解决非结构化的越野环境中的自主导航和控制。与呈现完全已知的状态转换模型的大多数决策定理计划框架相比,我们设计了一种方法,该方法消除了这种强烈假设,这些假设通常非常难以在现实中工程师。我们首先采用价值函数的二阶泰勒扩展。然后通过部分微分方程近似贝尔曼的最优性方程,其仅依赖于转换模型的第一和第二矩。通过组合价值函数的内核表示,然后设计一种有效的策略迭代算法,其策略评估步骤可以表示为特征的方程式的线性系统,其特征是由有限组支持状态。我们首先通过大量的仿真以2D美元的$ 2D $避让和2.5d $地形导航问题进行验证。结果表明,拟议的方法在几个基线上导致了卓越的性能。然后,我们开发一个系统,该系统将我们的决策框架整合,与船上感知,并在杂乱的室内和非结构化的户外环境中进行现实世界的实验。物理系统的结果进一步展示了我们在挑战现实世界环境中的方法的适用性。
translated by 谷歌翻译
室内运动计划的重点是解决通过混乱环境导航代理的问题。迄今为止,在该领域已经完成了很多工作,但是这些方法通常无法找到计算廉价的在线路径计划和路径最佳之间的最佳平衡。除此之外,这些作品通常证明是单一启动单目标世界的最佳性。为了应对这些挑战,我们为在未知室内环境中进行导航的多个路径路径计划者和控制器堆栈,在该环境中,路点将目标与机器人必须在达到目标之前必须穿越的中介点一起。我们的方法利用全球规划师(在任何瞬间找到下一个最佳航路点),本地规划师(计划通往特定航路点的路径)以及自适应模型预测性控制策略(用于强大的系统控制和更快的操作) 。我们在一组随机生成的障碍图,中间航路点和起始目标对上评估了算法,结果表明计算成本显着降低,具有高度准确性和可靠的控制。
translated by 谷歌翻译
机器人导航传统上依赖于构建用于计划无碰撞轨迹的显式映射到所需的目标。在可变形的复杂地形中,使用基于几何的方法可以不能找到由于错误的可变形物体而像刚性和不可能的那样的路径。相反,我们学习预测地形区域的可迁移性以及更喜欢更容易导航的区域的估计(例如,小草上的小灌木)。与规范动态模型相比,我们而不是预测碰撞,而不是在实现的错误上回归。我们用一个政策方法训练,导致使用跨模拟和现实世界的培训数据分裂的50分钟的成功导航政策。我们基于学习的导航系统是一个示例高效的短期计划,我们在通过包括草原和森林的各种地形导航的清晰路径哈士摩克
translated by 谷歌翻译
我们提出了一种自我监督的方法,用于预测需要良好牵引力才能导航的轮式移动机器人的可穿越路径。我们的算法称为Wayfast(无路线自动驾驶系统用于遍历性),使用RGB和深度数据以及导航经验,自主在室外非结构化环境中自主生成可遍历的路径。我们的主要灵感是,可以使用动力动力学模型估算滚动机器人的牵引力。使用在线退化的视野估计器提供的牵引力估计值,我们能够以自我监督的方式训练遍历性预测神经网络,而无需以前的方法使用的启发式方法。我们通过在各种环境中进行广泛的现场测试来证明Wayfast的有效性,从沙滩到森林檐篷和积雪覆盖的草田不等。我们的结果清楚地表明,Wayfast可以学会避免几何障碍物以及不可传输的地形,例如雪,这很难避免使用仅提供几何数据(例如LiDAR)的传感器。此外,我们表明,基于在线牵引力估计的培训管道比其他基于启发式的方法更有效率。
translated by 谷歌翻译
我们提出了一种新颖的户外导航算法,以生成稳定,有效的动作,以将机器人导航到目标。我们使用多阶段的训练管道,并表明我们的模型产生了政策,从而在复杂的地形上导致稳定且可靠的机器人导航。基于近端政策优化(PPO)算法,我们开发了一种新颖的方法来实现户外导航任务的多种功能,即:减轻机器人的漂移,使机器人在颠簸的地形上保持稳定,避免在山丘上攀登,并具有陡峭的山坡,并改变了山坡,并保持了陡峭的高度变化,并使机器人稳定在山坡上,并避免了攀岩地面上的攀登,并避免了机器人的攀岩地形,并避免了机器人的攀岩地形。避免碰撞。我们的培训过程通过引入更广泛的环境和机器人参数以及统一模拟器中LIDAR感知的丰富特征来减轻现实(SIM到现实)差距。我们使用Clearphith Husky和Jackal在模拟和现实世界中评估我们的方法。此外,我们将我们的方法与最先进的方法进行了比较,并表明在现实世界中,它在不平坦的地形上至少提高了30.7%通过防止机器人在高梯度的区域移动,机器人在每个运动步骤处的高程变化。
translated by 谷歌翻译
高速偏离地面车辆的高速偏离道路导航的主要挑战之一是,车辆地形相互作用的动力动力学会根据地形而大不相同。以前解决这一挑战的方法已经考虑学习一种基于车辆的惯性信息,以感知运动动力学相互作用。在本文中,我们假设,除了过去的惯性信息外,还必须预料到将来,还必须预料到将来,还必须预料到将来,还必须预料到将来,还必须预料到将来,还必须预料到将来的动力学相互作用,以实现精确的高速越野导航。为此,我们引入了视觉惯性逆动力动力学(VI-IKD),这是一种新型的基于学习的IKD模型,除了过去的惯性信息外,还基于从机器人前面的地形贴片的视觉信息进行条件,使其能够预期会素动力学相互作用在将来。我们在室内和室外环境中验证了VI-IKD在实验上进行实验性高速越野导航的有效性ART方法,VI-IKD可以以高达3.5 m/s的速度在各种不同的地形上更准确,更强大的越野导航。
translated by 谷歌翻译
对机器人在现实世界中的准确控制需要一个控制系统,该控制系统能够考虑机器人与环境的动力学相互作用。在高速度下,机器人对这些运动动力学相互作用的运动依赖性变得更加明显,使高速,准确的机器人控制一个具有挑战性的问题。先前的工作表明,学习机器人的逆动力动力学(IKD)可能有助于高速机器人控制。但是,学习的逆运动动力学模型只能应用于有限的控制问题类别,不同的控制问题需要学习新的IKD模型。在这项工作中,我们提出了一种新的公式,用于精确,高速机器人控制,该配方利用了学习的前进运动动力学(FKD)模型和非线性最小二乘优化。从公式的本质上讲,这种方法可以扩展到各种各样的控制问题,而无需重新培训新模型。我们证明了这种方法在高速上准确控制刻度的十分之一机器人车的能力,并显示出比基线相比的结果。
translated by 谷歌翻译
随着腿部机器人和嵌入式计算都变得越来越有能力,研究人员已经开始专注于这些机器人的现场部署。在非结构化环境中的强大自治需要对机器人周围的世界感知,以避免危害。但是,由于处理机车动力学所需的复杂规划人员和控制器,因此在网上合并在线的同时在线保持敏捷运动对腿部机器人更具挑战性。该报告将比较三种最新的感知运动方法,并讨论可以使用视觉来实现腿部自主权的不同方式。
translated by 谷歌翻译
估计越野环境中的地形横穿性需要关于机器人和这些地形之间复杂相互作用动态的推理。但是,建立准确的物理模型,或创建有益的标签来以有监督的方式学习模型是有挑战性的。我们提出了一种方法,该方法通过将外部感受性的环境信息与本体感受性的地形相互作用反馈相结合,以自我监督的方式将遍历性成本映像结合在一起。此外,我们提出了一种将机器人速度纳入Costmap预测管道中的新型方法。我们在具有挑战性的越野地形上,在多个大型,自动的全地形车辆(ATV)上验证了我们的方法,并在单独的大型地面机器人上易于集成。我们的短尺寸导航结果表明,使用我们学到的Costmaps可以使整体航行更顺畅,并为机器人提供了对机器人与不同地形类型(例如草和砾石)之间相互作用的更细粒度的了解。我们的大规模导航试验表明,与基于占用率的导航基线相比,我们可以将干预措施的数量减少多达57%,这是在挑战400 m至3150 m不等的越野课程中。
translated by 谷歌翻译
我们提出了Terrapn,这是一种新颖的方法,它可以通过自我监督的学习直接从机器人 - 泰林相互作用中了解复杂室外地形的表面特性(牵引力,颠簸,可变形等),并将其用于自动驾驶机器人导航。我们的方法使用地形表面和机器人的速度的RGB图像作为输入,以及机器人作为自我选择的标签所经历的IMU振动和探测错误。我们的方法计算了一个表面成本图,该图将平滑,高吸收表面(低导航成本)与颠簸,滑水,可变形表面(高导航成本)区分开。我们通过检测表面之间的边界来计算从输入RGB图像的非均匀采样贴片来计算成本图,从而与均匀的采样和现有分割方法相比,导致推理时间较低(低47.27%)。我们提出了一种新颖的导航算法,该算法可以说明表面成本,计算机器人的基于成本的加速度限制以及动态可行的无碰撞轨迹。 Terrapn的表面成本预测可以在约25分钟内进行五个不同的表面进行训练,而先前基于学习的分割方法数小时。在导航方面,我们的方法在成功率(高达35.84%),轨迹的振动成本(降低21.52%)方面优于先前的工作,并在颠簸,可变形的表面上放慢机器人(最高46.76%)在不同的情况下较慢)。
translated by 谷歌翻译
嘈杂的传感,不完美的控制和环境变化是许多现实世界机器人任务的定义特征。部分可观察到的马尔可夫决策过程(POMDP)提供了一个原则上的数学框架,用于建模和解决不确定性下的机器人决策和控制任务。在过去的十年中,它看到了许多成功的应用程序,涵盖了本地化和导航,搜索和跟踪,自动驾驶,多机器人系统,操纵和人类机器人交互。这项调查旨在弥合POMDP模型的开发与算法之间的差距,以及针对另一端的不同机器人决策任务的应用。它分析了这些任务的特征,并将它们与POMDP框架的数学和算法属性联系起来,以进行有效的建模和解决方案。对于从业者来说,调查提供了一些关键任务特征,以决定何时以及如何成功地将POMDP应用于机器人任务。对于POMDP算法设计师,该调查为将POMDP应用于机器人系统的独特挑战提供了新的见解,并指出了有希望的新方向进行进一步研究。
translated by 谷歌翻译
我们解决了动态环境中感知力的问题。在这个问题中,四足动物的机器人必须对环境混乱和移动的障碍物表现出强大而敏捷的步行行为。我们提出了一个名为Prelude的分层学习框架,该框架将感知力的问题分解为高级决策,以预测导航命令和低级步态生成以实现目标命令。在此框架中,我们通过在可进入手推车上收集的人类示范和使用加固学习(RL)的低级步态控制器(RL)上收集的人类示范中的模仿学习来训练高级导航控制器。因此,我们的方法可以从人类监督中获取复杂的导航行为,并从反复试验中发现多功能步态。我们证明了方法在模拟和硬件实验中的有效性。可以在https://ut-aut-autin-rpl.github.io/prelude上找到视频和代码。
translated by 谷歌翻译
通过学习占用和公制地图来解决开放世界越野导航任务的几何方法,提供良好的泛化,但在违反他们的假设(例如,高草)的户外环境中可能是脆弱的。基于学习的方法可以直接从原始观察中学习无碰撞行为,但难以与标准的基于几何的管道集成。这创造了一个不幸的冲突 - 要么使用学习,要么丢失很好的几何导航组件,要么不使用它,或者不使用它,支持广泛的手动调整几何的成本图。在这项工作中,我们通过以一种方式设计学习和非学习的组件来拒绝这种二分法,使得它们可以以自我监督的方式有效地组合。这两个组件都有助于规划标准:学习组件作为奖励有助于预测的可遍历,而几何组件会有助于障碍成本信息。我们实例化并相对评价我们的系统在分销和分发的外部环境中,表明这种方法继承了来自学习和几何成分的互补收益,并显着优于其中任何一个。我们的结果视频在https://sites.google.com/view/hybrid -imitative-planning托管
translated by 谷歌翻译
移动机器人的成功操作要求它们迅速适应环境变化。为了为移动机器人开发自适应决策工具,我们提出了一种新颖的算法,该算法将元强化学习(META-RL)与模型预测控制(MPC)相结合。我们的方法采用额外的元元素算法作为基线,以使用MPC生成的过渡样本来训练策略,当机器人检测到某些事件可以通过MPC有效处理的某些事件,并明确使用机器人动力学。我们方法的关键思想是以随机和事件触发的方式在元学习策略和MPC控制器之间进行切换,以弥补由有限的预测范围引起的次优MPC动作。在元测试期间,将停用MPC模块,以显着减少运动控制中的计算时间。我们进一步提出了一种在线适应方案,该方案使机器人能够在单个轨迹中推断并适应新任务。通过使用(i)障碍物的合成运动和(ii)现实世界的行人运动数据,使用非线性汽车样的车辆模型来证明我们方法的性能。模拟结果表明,我们的方法在学习效率和导航质量方面优于其他算法。
translated by 谷歌翻译
尽管移动操作在工业和服务机器人技术方面都重要,但仍然是一个重大挑战,因为它需要将最终效应轨迹的无缝整合与导航技能以及对长匹马的推理。现有方法难以控制大型配置空间,并导航动态和未知环境。在先前的工作中,我们建议将移动操纵任务分解为任务空间中最终效果的简化运动生成器,并将移动设备分解为训练有素的强化学习代理,以说明移动基础的运动基础,以说明运动的运动可行性。在这项工作中,我们引入了移动操作的神经导航(n $^2 $ m $^2 $),该导航将这种分解扩展到复杂的障碍环境,并使其能够解决现实世界中的广泛任务。最终的方法可以在未探索的环境中执行看不见的长马任务,同时立即对动态障碍和环境变化做出反应。同时,它提供了一种定义新的移动操作任务的简单方法。我们证明了我们提出的方法在多个运动学上多样化的移动操纵器上进行的广泛模拟和现实实验的能力。代码和视频可在http://mobile-rl.cs.uni-freiburg.de上公开获得。
translated by 谷歌翻译
我们提出了一种新的方法,以改善基于深入强化学习(DRL)的室外机器人导航系统的性能。大多数现有的DRL方法基于精心设计的密集奖励功能,这些功能可以学习环境中的有效行为。我们仅通过稀疏的奖励(易于设计)来解决这个问题,并提出了一种新颖的自适应重尾增强算法,用于户外导航,称为Htron。我们的主要思想是利用重尾政策参数化,这些参数隐含在稀疏的奖励环境中引起探索。我们在三种不同的室外场景中评估了针对钢琴,PPO和TRPO算法的htron的性能:进球,避免障碍和地形导航不均匀。我们平均观察到成功率的平均增加了34.41%,与其他方法相比,与其他方法获得的导航政策相比,为达到目标的平均时间步骤下降了15.15%,高程成本下降了24.9%。此外,我们证明我们的算法可以直接转移到Clearpath Husky机器人中,以在现实情况下进行户外地形导航。
translated by 谷歌翻译
为了实现成功的实地自主权,移动机器人需要自由适应环境的变化。视觉导航系统(如视觉教学和重复(VT&R)通常会假设参考轨迹周围的空间是自由的,但如果环境受阻,则路径跟踪可能会失败,或者机器人可以与先前看不见的障碍物碰撞。在这项工作中,我们为VT&R系统提供了一个局部反应控制器,允许机器人尽管对环境进行物理变化,但是尽管环境变化。我们的控制器使用本地高程映射来计算矢量表示,并输出10 Hz导航的Twist命令。它们组合在Riemannian运动策略(RMP)控制器中,该控制器需要<2 ms以在CPU上运行。我们将我们的控制器与VT&R系统集成在内的ANYMAL COMOT,并在室内杂乱的空间和大规模地下矿井中进行了测试。我们表明,当发生诸如靠近墙壁,交叉门口或穿越狭窄的走廊时,当发生视觉跟踪时,我们的本地反应控制器保持机器人安全。视频:https://youtu.be/g_awnec5awu.
translated by 谷歌翻译
The field of autonomous mobile robots has undergone dramatic advancements over the past decades. Despite achieving important milestones, several challenges are yet to be addressed. Aggregating the achievements of the robotic community as survey papers is vital to keep the track of current state-of-the-art and the challenges that must be tackled in the future. This paper tries to provide a comprehensive review of autonomous mobile robots covering topics such as sensor types, mobile robot platforms, simulation tools, path planning and following, sensor fusion methods, obstacle avoidance, and SLAM. The urge to present a survey paper is twofold. First, autonomous navigation field evolves fast so writing survey papers regularly is crucial to keep the research community well-aware of the current status of this field. Second, deep learning methods have revolutionized many fields including autonomous navigation. Therefore, it is necessary to give an appropriate treatment of the role of deep learning in autonomous navigation as well which is covered in this paper. Future works and research gaps will also be discussed.
translated by 谷歌翻译