本报告提出了微型航空车辆(MAV)自主导航的组合最优控制和感知框架在新颖的室内封闭环境中,专门用于车载传感器数据。我们使用模拟器的特权信息来为我们的感知系统生成3D空间中的最佳航点,以便我们学会模仿。培训的基于学习的感知模块又能够单独生成类似障碍避免从传感器数据(RGB + IMU)的航点。我们展示了框架跨IGIBSON模拟环境中的新颖场景的功效。
translated by 谷歌翻译
神经辐射场(NERF)最近被成为自然,复杂3D场景的代表的强大范例。 NERFS表示神经网络中的连续体积密度和RGB值,并通过射线跟踪从看不见的相机观点生成照片逼真图像。我们提出了一种算法,用于通过仅使用用于本地化的板载RGB相机表示为NERF的3D环境导航机器人。我们假设现场的NERF已经预先训练了离线,机器人的目标是通过NERF中的未占用空间导航到目标姿势。我们介绍了一种轨迹优化算法,其避免了基于NERF中的高密度区域的碰撞,其基于差分平整度的离散时间版本,其可用于约束机器人的完整姿势和控制输入。我们还介绍了基于优化的过滤方法,以估计单位的RGB相机中的NERF中机器人的6dof姿势和速度。我们将轨迹策划器与在线重新循环中的姿势过滤器相结合,以提供基于视觉的机器人导航管道。我们使用丛林健身房环境,教堂内部和巨石阵线导航的四轮车机器人,使用RGB相机展示仿真结果。我们还展示了通过教会导航的全向地面机器人,要求它重新定位以缩小差距。这项工作的视频可以在https://mikh3x4.github.io/nerf-navigation/找到。
translated by 谷歌翻译
Robot assistants are emerging as high-tech solutions to support people in everyday life. Following and assisting the user in the domestic environment requires flexible mobility to safely move in cluttered spaces. We introduce a new approach to person following for assistance and monitoring. Our methodology exploits an omnidirectional robotic platform to detach the computation of linear and angular velocities and navigate within the domestic environment without losing track of the assisted person. While linear velocities are managed by a conventional Dynamic Window Approach (DWA) local planner, we trained a Deep Reinforcement Learning (DRL) agent to predict optimized angular velocities commands and maintain the orientation of the robot towards the user. We evaluate our navigation system on a real omnidirectional platform in various indoor scenarios, demonstrating the competitive advantage of our solution compared to a standard differential steering following.
translated by 谷歌翻译
本文有助于设计一种利用基于学习的碰撞预测网络的新型导航计划程序的方法。神经网络是任务,以预测机器人的速度转向角度空间中的预定运动原语库中的每个动作序列的碰撞成本,仅给出电流深度图像和机器人的估计线性和角速度。此外,我们通过使用Monte Carlo辍学来处理机器人的部分状态的不确定性。然后将不确定性感应的碰撞成本与由全球计划者给出的目标方向组合,以便以倒退的地平线方式确定最佳动作序列。为了展示该方法,我们开发了集成轻量级传感和计算资源的弹性小型飞行机器人。进行了一组模拟和实验研究,包括杂乱和感知挑战性环境的现场部署,以评估预测网络的质量和所提出的规划师的性能。
translated by 谷歌翻译
陆地 - 空中双模车辆在学术界和工业中绽放,因为它们融入了空中车辆的高流动性和地面车辆的长期耐力。在这项工作中,我们提出了一种自主和自适应的导航框架,为这类车辆带来完全自主权。该框架主要包括1)分层运动规划器,在未知环境中产生安全和低功率的地面 - 鸟轨迹,2)统一运动控制器,其动态地调整陆地运动中的能量消耗。广泛的现实实验和基准比较是在定制的机器人平台上进行的,以验证所提出的框架的稳健性和性能。在测试期间,机器人安全地穿越了陆地集成流动性的复杂环境,并在地面运动中实现了7美元的节能。最后,我们将为社区的引用发出我们的代码和硬件配置。
translated by 谷歌翻译
人类比赛无人机比针对端到端自治飞行所培训的神经网络更快。这可能与人类飞行员有效地选择任务相关的视觉信息的能力有关。这项工作调查了能够模仿人眼凝视行为和注意力的神经网络可以提高基于视觉的自主无人机赛车的挑战性的神经网络性能。我们假设基于凝视的注意预测可以是基于模拟器的无人机赛任务中的视觉信息选择和决策的有效机制。我们使用来自18个人的无人机飞行员的眼睛凝视和飞行轨迹数据来测试这个假设,以培训视觉注意预测模型。然后,我们使用这种视觉注意预测模型来使用模仿学习训练基于视觉的自主无人机赛车的端到端控制器。我们将注意力预测控制器的无人机赛竞赛性能与使用原始图像输入和基于图像的抽象(即,特征曲目)进行比较。我们的研究结果表明,关注预测的控制器优于基线,能够始终如一地完成挑战性的竞赛赛道,最高可达88%的成功率。此外,当在对凝固参考轨迹进行评估时,视觉注意力预测和基于特征轨迹的模型显示出比基于图像的模型更好的泛化性能。我们的结果表明,人类视觉注意力预测可提高基于视觉视觉的无人机赛车的性能,为最终可以达到甚至超过人类性能的基于视觉,快速和敏捷的自主飞行提供了重要步骤。
translated by 谷歌翻译
我们利用了肢体机器人互动和预言的互补优势,实现了点球导航。腿系统能够穿过比轮式机器人更复杂的地形,而是为了充分利用这种能力,我们需要导航系统中的高级路径规划仪,了解在不同地形上的低级运动策略的步行能力。我们通过使用壁虎搜寻反馈来实现这一目标来估计行走政策的安全操作限制,并感知意外障碍和地形性质,如可能被视力错过的地面的平滑度或柔软度。导航系统使用车载相机来生成占用映射和相应的成本图以实现目标。然后,FMM(快速行进方法)规划器然后生成目标路径。速度命令生成器将此作为输入,以从安全顾问,意外障碍和地形速度限制生成作为输入附加约束的机车策略的所需速度。与轮式机器人(Logobot)基线(Logobot)基线和其他具有不相交的基调规划和低级控制的基线显示出卓越的性能。我们还在具有板载传感器和计算的Quadruped Robot上显示了我们系统的真实部署。 https://navigation-locomotion.github.io/camera-ready的视频
translated by 谷歌翻译
By utilizing only depth information, the paper introduces a novel but efficient local planning approach that enhances not only computational efficiency but also planning performances for memoryless local planners. The sampling is first proposed to be based on the depth data which can identify and eliminate a specific type of in-collision trajectories in the sampled motion primitive library. More specifically, all the obscured primitives' endpoints are found through querying the depth values and excluded from the sampled set, which can significantly reduce the computational workload required in collision checking. On the other hand, we furthermore propose a steering mechanism also based on the depth information to effectively prevent an autonomous vehicle from getting stuck when facing a large convex obstacle, providing a higher level of autonomy for a planning system. Our steering technique is theoretically proved to be complete in scenarios of convex obstacles. To evaluate effectiveness of the proposed DEpth based both Sampling and Steering (DESS) methods, we implemented them in the synthetic environments where a quadrotor was simulated flying through a cluttered region with multiple size-different obstacles. The obtained results demonstrate that the proposed approach can considerably decrease computing time in local planners, where more trajectories can be evaluated while the best path with much lower cost can be found. More importantly, the success rates calculated by the fact that the robot successfully navigated to the destinations in different testing scenarios are always higher than 99.6% on average.
translated by 谷歌翻译
近年来,空中机器人背景下的高速导航和环境互动已成为几个学术和工业研究研究的兴趣领域。特别是,由于其若干环境中的潜在可用性,因此搜索和拦截(SAI)应用程序造成引人注目的研究区域。尽管如此,SAI任务涉及有关感官权重,板载计算资源,致动设计和感知和控制算法的具有挑战性的发展。在这项工作中,已经提出了一种用于高速对象抓握的全自动空中机器人。作为一个额外的子任务,我们的系统能够自主地刺穿位于靠近表面的杆中的气球。我们的第一款贡献是在致动和感觉水平的致动和感觉水平的空中机器人的设计,包括具有额外传感器的新型夹具设计,使机器人能够高速抓住物体。第二种贡献是一种完整的软件框架,包括感知,状态估计,运动计划,运动控制和任务控制,以便快速且强大地执行自主掌握任务。我们的方法已在一个具有挑战性的国际竞争中验证,并显示出突出的结果,能够在室外环境中以6米/分来自动搜索,遵循和掌握移动物体
translated by 谷歌翻译
深度加强学习算法需要大型和多样化的数据集,以便学习基于感知的移动导航的成功策略。但是,通过单个机器人收集此类数据集可能会非常昂贵。使用多个不同的机器人平台收集数据可能不同的动态是一种更可扩展的大规模数据收集方法。但是深度加强学习算法如何利用这种异构数据集?在这项工作中,我们提出了一种具有分层集成模型(提示)的深增强学习算法。在培训时间,提示了解单独的感知和动态模型,并且在测试时间内,提示以分层方式集成了两个模型,并计划使用集成模型的操作。这种使用分层集成模型的规划方法允许算法在由各种不同平台收集的数据集上训练,同时尊重部署机器人的物理功能在测试时间。我们的移动导航实验表明,提示优于传统的等级政策和单源方法。
translated by 谷歌翻译
视觉惯性进程(VIO)被广泛用于多次计算机的状态估计,但在很少的视觉特征或过度攻击性飞行中的环境中起作用可能很差。在这项工作中,我们建议使用任何基于功能的VIO算法使用的多杆避免感知碰撞轨迹轨迹计划器。我们的方法能够以快速的速度飞行车辆到达目标位置,从而避免在未知的固定环境中遇到障碍,同时达到良好的VIO状态估计精度。拟议的规划师样本了一组最小的混蛋轨迹,并发现其中无冲突的轨迹,然后根据其目标和感知质量对其进行评估。特征及其位置的运动模糊都是为了感知质量。我们对功能运动模糊的新颖考虑使轨迹在具有不同光级别的环境下的侵略性自动适应。评估中的最佳轨迹是由车辆跟踪的,当从相机中收到新图像时,将以退缩的方式更新。仅对VIO做出了通用假设,因此计划器可以与各种现有系统一起使用。提出的方法可以在船上的小型嵌入式计算机上实时运行。我们通过在室内和室外环境中进行实验验证了我们提出的方法的有效性。与感知不可或缺的策划者相比,提议的计划者在摄像机的视野中保留了更多功能,并使飞行变得不那么侵略性,从而使VIO更加准确。它还减少了VIO失败,这是对感知态度计划者的发生,但并非针对拟议的计划者。还验证了拟议的规划师飞越密集障碍的能力。可以在https://youtu.be/qo3lzirpwtq上找到实验视频。
translated by 谷歌翻译
这项工作研究了图像目标导航问题,需要通过真正拥挤的环境引导具有嘈杂传感器和控制的机器人。最近的富有成效的方法依赖于深度加强学习,并学习模拟环境中的导航政策,这些环境比真实环境更简单。直接将这些训练有素的策略转移到真正的环境可能非常具有挑战性甚至危险。我们用由四个解耦模块组成的分层导航方法来解决这个问题。第一模块在机器人导航期间维护障碍物映射。第二个将定期预测实时地图上的长期目标。第三个计划碰撞命令集以导航到长期目标,而最终模块将机器人正确靠近目标图像。四个模块是单独开发的,以适应真实拥挤的情景中的图像目标导航。此外,分层分解对导航目标规划,碰撞避免和导航结束预测的学习进行了解耦,这在导航训练期间减少了搜索空间,并有助于改善以前看不见的真实场景的概括。我们通过移动机器人评估模拟器和现实世界中的方法。结果表明,我们的方法优于多种导航基线,可以在这些方案中成功实现导航任务。
translated by 谷歌翻译
我们解决了在存在障碍物的情况下,通过一系列航路点来解决四肢飞行的最低时间飞行问题,同时利用了完整的四型动力学。早期作品依赖于简化的动力学或多项式轨迹表示,而这些动力学或多项式轨迹表示,这些表示没有利用四四光的全部执行器电位,因此导致了次优溶液。最近的作品可以计划最小的时间轨迹;然而,轨迹是通过无法解释障碍的控制方法执行的。因此,由于模型不匹配和机上干扰,成功执行此类轨迹很容易出现错误。为此,我们利用深厚的强化学习和经典的拓扑路径计划来训练强大的神经网络控制器,以在混乱的环境中为最少的四型四型飞行。由此产生的神经网络控制器表现出比最新方法相比,高达19%的性能要高得多。更重要的是,博学的政策同时在线解决了计划和控制问题,以解决干扰,从而实现更高的鲁棒性。因此,提出的方法在没有碰撞的情况下实现了100%的最低时间策略的成功率,而传统的计划和控制方法仅获得40%。所提出的方法在模拟和现实世界中均已验证,四速速度高达42公里/小时,加速度为3.6g。
translated by 谷歌翻译
随着腿部机器人和嵌入式计算都变得越来越有能力,研究人员已经开始专注于这些机器人的现场部署。在非结构化环境中的强大自治需要对机器人周围的世界感知,以避免危害。但是,由于处理机车动力学所需的复杂规划人员和控制器,因此在网上合并在线的同时在线保持敏捷运动对腿部机器人更具挑战性。该报告将比较三种最新的感知运动方法,并讨论可以使用视觉来实现腿部自主权的不同方式。
translated by 谷歌翻译
室内运动计划的重点是解决通过混乱环境导航代理的问题。迄今为止,在该领域已经完成了很多工作,但是这些方法通常无法找到计算廉价的在线路径计划和路径最佳之间的最佳平衡。除此之外,这些作品通常证明是单一启动单目标世界的最佳性。为了应对这些挑战,我们为在未知室内环境中进行导航的多个路径路径计划者和控制器堆栈,在该环境中,路点将目标与机器人必须在达到目标之前必须穿越的中介点一起。我们的方法利用全球规划师(在任何瞬间找到下一个最佳航路点),本地规划师(计划通往特定航路点的路径)以及自适应模型预测性控制策略(用于强大的系统控制和更快的操作) 。我们在一组随机生成的障碍图,中间航路点和起始目标对上评估了算法,结果表明计算成本显着降低,具有高度准确性和可靠的控制。
translated by 谷歌翻译
Underwater navigation presents several challenges, including unstructured unknown environments, lack of reliable localization systems (e.g., GPS), and poor visibility. Furthermore, good-quality obstacle detection sensors for underwater robots are scant and costly; and many sensors like RGB-D cameras and LiDAR only work in-air. To enable reliable mapless underwater navigation despite these challenges, we propose a low-cost end-to-end navigation system, based on a monocular camera and a fixed single-beam echo-sounder, that efficiently navigates an underwater robot to waypoints while avoiding nearby obstacles. Our proposed method is based on Proximal Policy Optimization (PPO), which takes as input current relative goal information, estimated depth images, echo-sounder readings, and previous executed actions, and outputs 3D robot actions in a normalized scale. End-to-end training was done in simulation, where we adopted domain randomization (varying underwater conditions and visibility) to learn a robust policy against noise and changes in visibility conditions. The experiments in simulation and real-world demonstrated that our proposed method is successful and resilient in navigating a low-cost underwater robot in unknown underwater environments. The implementation is made publicly available at https://github.com/dartmouthrobotics/deeprl-uw-robot-navigation.
translated by 谷歌翻译
在机器人研究中,在不平坦的地形中安全导航是一个重要的问题。在本文中,我们提出了一个2.5D导航系统,该系统包括高程图构建,路径规划和本地路径,随后避免了障碍。对于本地路径,我们使用模型预测路径积分(MPPI)控制方法。我们为MPPI提出了新的成本功能,以使其适应高程图和通过不平衡运动。我们在多个合成测试和具有不同类型的障碍物和粗糙表面的模拟环境中评估系统。
translated by 谷歌翻译
深度强化学习在基于激光的碰撞避免有效的情况下取得了巨大的成功,因为激光器可以感觉到准确的深度信息而无需太多冗余数据,这可以在算法从模拟环境迁移到现实世界时保持算法的稳健性。但是,高成本激光设备不仅很难为大型机器人部署,而且还表现出对复杂障碍的鲁棒性,包括不规则的障碍,例如桌子,桌子,椅子和架子,以及复杂的地面和特殊材料。在本文中,我们提出了一个新型的基于单眼相机的复杂障碍避免框架。特别是,我们创新地将捕获的RGB图像转换为伪激光测量,以进行有效的深度强化学习。与在一定高度捕获的传统激光测量相比,仅包含距离附近障碍的一维距离信息,我们提议的伪激光测量融合了捕获的RGB图像的深度和语义信息,这使我们的方法有效地有效障碍。我们还设计了一个功能提取引导模块,以加重输入伪激光测量,并且代理对当前状态具有更合理的关注,这有利于提高障碍避免政策的准确性和效率。
translated by 谷歌翻译
Today's robots often interface with data-driven perception and planning models with classical model-predictive controllers (MPC). Often, such learned perception/planning models produce erroneous waypoint predictions on out-of-distribution (OoD) or even adversarial visual inputs, which increase control costs. However, today's methods to train robust perception models are largely task-agnostic - they augment a dataset using random image transformations or adversarial examples targeted at the vision model in isolation. As such, they often introduce pixel perturbations that are ultimately benign for control. In contrast to prior work that synthesizes adversarial examples for single-step vision tasks, our key contribution is to synthesize adversarial scenarios tailored to multi-step, model-based control. To do so, we use differentiable MPC methods to calculate the sensitivity of a model-based controller to errors in state estimation. We show that re-training vision models on these adversarial datasets improves control performance on OoD test scenarios by up to 36.2% compared to standard task-agnostic data augmentation. We demonstrate our method on examples of robotic navigation, manipulation in RoboSuite, and control of an autonomous air vehicle.
translated by 谷歌翻译
我们提出了一个新型的基于流动合成的视觉致毒框架,从而为微型航空车辆(MAV)避免了远距离的障碍物(MAV)在高大的摩天大楼中飞行。最近的基于深度学习的框架使用光流进行高精度的视觉伺服。在本文中,我们探讨了一个问题:我们可以为这些高精度视觉服务方法设计替代流,从而导致避免障碍?我们重新审视显着性的概念,以识别其他竞争摩天大楼和建筑物之间的攻击线中的高层建筑物作为碰撞障碍。合成的流程用于取代显着对象分割掩码。该流程得以计算,以至于视觉伺服控制器在障碍物周围安全地操纵MAV。在这种方法中,我们使用基于多步跨凝结法(CEM)的伺服控制来实现流量收敛,从而导致避免障碍物。我们使用这种新颖的管道来成功,持久地进行高层建筑,并在模拟和现实的现实世界中实现目标。我们进行了广泛的实验,并将我们的方法与光流和基于短距离的障碍物回避方法进行比较,以证明所提出的框架的优点。可以在https://sites.google.com/view/munocular-obstacle/home上找到其他可视化。
translated by 谷歌翻译