视觉惯性导航系统的能力很强大,能够准确估计移动系统在复杂环境中排除全球导航卫星系统的使用。但是,这些导航系统依赖于所使用的传感器的准确和最新的临时校准。因此,这些参数的在线估计器在弹性系统中很有用。本文介绍了现有基于卡尔曼过滤器的框架的扩展,以估算和校准多相机IMU系统的外部参数。除了将过滤器框架扩展到包括多个摄像头传感器外,还重新制定了测量模型以利用通常在基准检测软件中提供的测量数据。使用二级过滤层来估计没有传感器数据的闭环反馈的时间翻译参数。与离线方法相比,使用实验性校准结果,包括使用具有非重叠视野的摄像机来验证滤波器公式的稳定性和准确性。最后,广义过滤代码已经开源,可以在线提供。
translated by 谷歌翻译
A monocular visual-inertial system (VINS), consisting of a camera and a low-cost inertial measurement unit (IMU), forms the minimum sensor suite for metric six degreesof-freedom (DOF) state estimation. However, the lack of direct distance measurement poses significant challenges in terms of IMU processing, estimator initialization, extrinsic calibration, and nonlinear optimization. In this work, we present VINS-Mono: a robust and versatile monocular visual-inertial state estimator. Our approach starts with a robust procedure for estimator initialization and failure recovery. A tightly-coupled, nonlinear optimization-based method is used to obtain high accuracy visual-inertial odometry by fusing pre-integrated IMU measurements and feature observations. A loop detection module, in combination with our tightly-coupled formulation, enables relocalization with minimum computation overhead. We additionally perform four degrees-of-freedom pose graph optimization to enforce global consistency. We validate the performance of our system on public datasets and real-world experiments and compare against other state-of-the-art algorithms. We also perform onboard closed-loop autonomous flight on the MAV platform and port the algorithm to an iOS-based demonstration. We highlight that the proposed work is a reliable, complete, and versatile system that is applicable for different applications that require high accuracy localization. We open source our implementations for both PCs 1 and iOS mobile devices 2 .
translated by 谷歌翻译
我们为腿部机器人提供了一个开源视觉惯性训练率(VILO)状态估计解决方案Cerberus,该机器人使用一组标准传感器(包括立体声摄像机,IMU,联合编码器,,imu,联合编码器)实时实时估算各个地形的位置和接触传感器。除了估计机器人状态外,我们还执行在线运动学参数校准并接触离群值拒绝以大大减少位置漂移。在各种室内和室外环境中进行的硬件实验验证了Cerberus中的运动学参数可以将估计的漂移降低到长距离高速运动中的1%以下。我们的漂移结果比文献中报道的相同的一组传感器组比任何其他状态估计方法都要好。此外,即使机器人经历了巨大的影响和摄像头遮挡,我们的状态估计器也表现良好。状态估计器的实现以及用于计算我们结果的数据集,可在https://github.com/shuoyangrobotics/cerberus上获得。
translated by 谷歌翻译
与单个IMU相比,多个刚性连接的惯性测量单元(IMU)传感器提供了更丰富的数据流。最先进的方法遵循IMU测量的概率模型,基于在贝叶斯框架下组合的错误的随机性质。但是,负担得起的低级IMU此外,由于其不受相应的概率模型所掩盖的缺陷而遭受了系统的错误。在本文中,我们提出了一种方法,即合并多个IMU(MIMU)传感器数据的最佳轴组成(BAC),以进行准确的3D置置估计,该数据通过从集合中动态选择最佳的IMU轴来考虑随机和系统误差所有可用的轴。我们在MIMU视觉惯性传感器上评估了我们的方法,并将方法的性能与MIMU数据融合的最新方法进行比较。我们表明,BAC的表现优于后者,并且在开放环路中的方向和位置估计都可以提高20%的精度,但需要适当的处理以保持获得的增益。
translated by 谷歌翻译
对于大多数LIDAR惯性进程,精确的初始状态,包括LiDAR和6轴IMU之间的时间偏移和外部转换,起着重要作用,通常被视为先决条件。但是,这种信息可能不会始终在定制的激光惯性系统中获得。在本文中,我们提出了liinit:一个完整​​的实时激光惯性系统初始化过程,该过程校准了激光雷达和imus之间的时间偏移和外部参数,以及通过对齐从激光雷达估计的状态来校准重力矢量和IMU偏置通过IMU测量的测量。我们将提出的方法实现为初始化模块,如果启用了,该模块会自动检测到收集的数据的激发程度并校准,即直接偏移,外部偏移,外部,重力向量和IMU偏置,然后是这样的。用作实时激光惯性射测系统的高质量初始状态值。用不同类型的LIDAR和LIDAR惯性组合进行的实验表明我们初始化方法的鲁棒性,适应性和效率。我们的LIDAR惯性初始化过程LIINIT和测试数据的实现在GitHub上开源,并集成到最先进的激光辐射射击轨道测定系统FastLiO2中。
translated by 谷歌翻译
我们提供了一种基于因子图优化的多摄像性视觉惯性内径系统,该系统通过同时使用所有相机估计运动,同时保留固定的整体特征预算。我们专注于在挑战环境中的运动跟踪,例如狭窄的走廊,具有侵略性动作的黑暗空间,突然的照明变化。这些方案导致传统的单眼或立体声测量失败。在理论上,使用额外的相机跟踪运动,但它会导致额外的复杂性和计算负担。为了克服这些挑战,我们介绍了两种新的方法来改善多相机特征跟踪。首先,除了从一体相机移动到另一个相机时,我们连续地跟踪特征的代替跟踪特征。这提高了准确性并实现了更紧凑的因子图表示。其次,我们选择跨摄像机的跟踪功能的固定预算,以降低反向结束优化时间。我们发现,使用较小的信息性功能可以保持相同的跟踪精度。我们所提出的方法使用由IMU和四个摄像机(前立体网和两个侧面)组成的硬件同步装置进行广泛测试,包括:地下矿,大型开放空间,以及带狭窄楼梯和走廊的建筑室内设计。与立体声最新的视觉惯性内径测量方法相比,我们的方法将漂移率,相对姿势误差,高达80%的翻译和旋转39%降低。
translated by 谷歌翻译
机器人应用不断努力朝着更高的自主权努力。为了实现这一目标,高度健壮和准确的状态估计是必不可少的。事实证明,结合视觉和惯性传感器方式可以在短期应用中产生准确和局部一致的结果。不幸的是,视觉惯性状态估计器遭受长期轨迹漂移的积累。为了消除这种漂移,可以将全球测量值融合到状态估计管道中。全球测量的最著名和广泛可用的来源是全球定位系统(GPS)。在本文中,我们提出了一种新颖的方法,该方法完全结合了立体视觉惯性同时定位和映射(SLAM),包括视觉循环封闭,并在基于紧密耦合且基于优化的框架中融合了全球传感器模式。结合了测量不确定性,我们提供了一个可靠的标准来解决全球参考框架初始化问题。此外,我们提出了一个类似环路的优化方案,以补偿接收GPS信号中断电中累积的漂移。在数据集和现实世界中的实验验证表明,与现有的最新方法相比,与现有的最新方法相比,我们对GPS辍学方法的鲁棒性以及其能够估算高度准确且全球一致的轨迹的能力。
translated by 谷歌翻译
近几十年来,Camera-IMU(惯性测量单元)传感器融合已经过度研究。已经提出了具有自校准的运动估计的许多可观察性分析和融合方案。然而,它一直不确定是否在一般运动下观察到相机和IMU内在参数。为了回答这个问题,我们首先证明,对于全球快门Camera-IMU系统,所有内在和外在参数都可以观察到未知的地标。鉴于此,滚动快门(RS)相机的时间偏移和读出时间也证明是可观察到的。接下来,为了验证该分析并解决静止期间结构无轨滤波器的漂移问题,我们开发了一种基于关键帧的滑动窗滤波器(KSWF),用于测量和自校准,它适用于单眼RS摄像机或立体声RS摄像机。虽然关键帧概念广泛用于基于视觉的传感器融合,但对于我们的知识,KSWF是支持自我校准的首先。我们的模拟和实际数据测试验证了,可以使用不同运动的机会主义地标的观察来完全校准相机-IMU系统。实际数据测试确认了先前的典故,即保持状态矢量的地标可以弥补静止漂移,并显示基于关键帧的方案是替代治疗方法。
translated by 谷歌翻译
安装在微空中车辆(MAV)上的地面穿透雷达是有助于协助人道主义陆地间隙的工具。然而,合成孔径雷达图像的质量取决于雷达天线的准确和精确运动估计以及与MAV产生信息性的观点。本文介绍了一个完整的自动空气缩进的合成孔径雷达(GPSAR)系统。该系统由空间校准和时间上同步的工业级传感器套件组成,使得在地面上方,雷达成像和光学成像。自定义任务规划框架允许在地上控制地上的Stripmap和圆形(GPSAR)轨迹的生成和自动执行,以及空中成像调查飞行。基于因子图基于Dual接收机实时运动(RTK)全局导航卫星系统(GNSS)和惯性测量单元(IMU)的测量值,以获得精确,高速平台位置和方向。地面真理实验表明,传感器时机为0.8美元,正如0.1美元的那样,定位率为1 kHz。与具有不确定标题初始化的单个位置因子相比,双位置因子配方可提高高达40%,批量定位精度高达59%。我们的现场试验验证了本地化准确性和精度,使得能够相干雷达测量和检测在沙子中埋入的雷达目标。这验证了作为鸟瞰着地图检测系统的潜力。
translated by 谷歌翻译
近年来,视觉惯性进程(VIO)取得了许多重大进展。但是,VIO方法遭受了长期轨迹的定位漂移。在本文中,我们建议通过将超宽带(UWB)的范围测量纳入VIO框架\ TextIt {Conseply},提议首次估计Jacobian Visual惯性范围射程(FEJ-VIRO)来减少VIO的定位漂移。考虑到UWB锚的初始位置通常不可用,我们提出了一个长短的窗口结构,以初始化UWB锚位置以及状态增强的协方差。初始化后,FEJ-VIRO与机器人姿势同时估算了UWB锚定位置。我们进一步分析了视觉惯性范围估计器的可观察性,并证明了理想情况下存在\ textit {fortiT {fortiT {fortiT {四},而其中一个在实际情况下由于浪费信息而消失。基于这些分析,我们利用FEJ技术来执行不可观察的方向,从而减少估计器的不一致。最后,我们通过模拟和现实世界实验验证分析并评估所提出的FEJ-VIRO。
translated by 谷歌翻译
本文解决了现场机器人动态运动下动态在线估计和3轴磁力计的硬铁和软铁偏置的动态在线估计和补偿问题,利用了3轴磁力计和3轴角度的偏置测量速率传感器。所提出的磁力计和角速度偏差估计器(MAVBE)利用了对经受角速度偏移的磁力计信号的非线性处理动态的15状态过程模型,同时估计9个磁力计偏置参数和3个角速率传感器偏置参数,在扩展卡尔曼过滤器框架。偏置参数局部可操作性在数值评估。偏置补偿信号与3轴加速度计信号一起用于估计偏置补偿磁力大地测量标题。与Chesapeake Bay,MD,MD,MD,MD,MD,MD,MD,MD,MD的数值模拟,实验室实验和全规模场试验中,评估了所提出的MAVBE方法的性能。对于所提出的Mavbe,(i)仪器态度不需要估计偏差,结果表明(ii)偏差是本地可观察的,(iii)偏差估计迅速收敛到真正的偏置参数,(iv)仅适用于适度的仪器偏压估计收敛需要激发,并且(v)对磁力计硬铁和柔软铁偏差的补偿显着提高了动态前线估计精度。
translated by 谷歌翻译
We propose a multisensor fusion framework for onboard real-time navigation of a quadrotor in an indoor environment, by integrating sensor readings from an Inertial Measurement Unit (IMU), a camera-based object detection algorithm, and an Ultra-WideBand (UWB) localization system. The sensor readings from the camera-based object detection algorithm and the UWB localization system arrive intermittently, since the measurements are not readily available. We design a Kalman filter that manages intermittent observations in order to handle and fuse the readings and estimate the pose of the quadrotor for tracking a predefined trajectory. The system is implemented via a Hardware-in-the-loop (HIL) simulation technique, in which the dynamic model of the quadrotor is simulated in an open-source 3D robotics simulator tool, and the whole navigation system is implemented on Artificial Intelligence (AI) enabled edge GPU. The simulation results show that our proposed framework offers low positioning and trajectory errors, while handling intermittent sensor measurements.
translated by 谷歌翻译
The field of autonomous mobile robots has undergone dramatic advancements over the past decades. Despite achieving important milestones, several challenges are yet to be addressed. Aggregating the achievements of the robotic community as survey papers is vital to keep the track of current state-of-the-art and the challenges that must be tackled in the future. This paper tries to provide a comprehensive review of autonomous mobile robots covering topics such as sensor types, mobile robot platforms, simulation tools, path planning and following, sensor fusion methods, obstacle avoidance, and SLAM. The urge to present a survey paper is twofold. First, autonomous navigation field evolves fast so writing survey papers regularly is crucial to keep the research community well-aware of the current status of this field. Second, deep learning methods have revolutionized many fields including autonomous navigation. Therefore, it is necessary to give an appropriate treatment of the role of deep learning in autonomous navigation as well which is covered in this paper. Future works and research gaps will also be discussed.
translated by 谷歌翻译
最近,多传感器融合已在自动化领域取得了重大进展,以提高导航和位置性能。作为融合算法的先决条件,对多传感器的外部校准的需求正在增长。为了计算外部参数,许多研究专门用于两步法,该方法将各个校准成对整合。由于失去了所有传感器的约束,因此效率低下且无效。关于减轻此负担,本文中提出了一种基于优化的IMU/LIDAR/摄像机共校准方法。首先,分别进行了IMU/相机和IMU/LIDAR在线校准。然后,棋盘中的角和表面特征点与粗糙的结果相关联,并构建了相机/LIDAR约束。最后,构建共校准优化以完善所有外部参数。我们评估了拟议方案在仿真中的性能,结果表明我们所提出的方法优于两步方法。
translated by 谷歌翻译
滑动检测对于在外星人表面驾驶的流浪者的安全性和效率至关重要。当前的行星流动站滑移检测系统依赖于视觉感知,假设可以在环境中获得足够的视觉特征。然而,基于视觉的方法容易受到感知降解的行星环境,具有主要低地形特征,例如岩石岩,冰川地形,盐散发物以及较差的照明条件,例如黑暗的洞穴和永久阴影区域。仅依靠视觉传感器进行滑动检测也需要额外的计算功率,并降低了流动站的遍历速率。本文回答了如何检测行星漫游者的车轮滑移而不取决于视觉感知的问题。在这方面,我们提出了一个滑动检测系统,该系统从本体感受的本地化框架中获取信息,该框架能够提供数百米的可靠,连续和计算有效的状态估计。这是通过使用零速度更新,零角度更新和非独立限制作为惯性导航系统框架的伪测量更新来完成的。对所提出的方法进行了对实际硬件的评估,并在行星 - 分析环境中进行了现场测试。该方法仅使用IMU和车轮编码器就可以达到150 m左右的92%滑动检测精度。
translated by 谷歌翻译
我们提出了一种雷达惯性内径测量的方法,其使用连续时间框架来熔断来自多个汽车雷达的熔丝测量和惯性测量单元(IMU)。不利的天气条件对雷达传感器的操作性能不同,与相机和激光器传感器不同,对雷达传感器的操作性能没有显着影响。雷达在这种情况下的鲁棒性和乘客车辆雷达的普遍普遍激励我们来看看雷达用于自我运动估计。连续时间轨迹表示不仅应用于实现异构和异步多传感器融合的框架,还应用于通过能够计算封闭形式的姿势及其衍生物来实现高效优化,并且在任何特定时间沿着弹道。我们将我们的连续时间估计与来自离散时间雷达 - 惯性内径型方法的方法进行比较,并表明我们的连续时间方法优于离散时间方法。据我们所知,这是第一次将连续时间框架应用于雷达惯性内径术。
translated by 谷歌翻译
姿势估计对于机器人感知,路径计划等很重要。机器人姿势可以在基质谎言组上建模,并且通常通过基于滤波器的方法进行估算。在本文中,我们在存在随机噪声的情况下建立了不变扩展Kalman滤波器(IEKF)的误差公式,并将其应用于视觉辅助惯性导航。我们通过OpenVINS平台上的数值模拟和实验评估我们的算法。在Euroc公共MAV数据集上执行的仿真和实验都表明,我们的算法优于某些基于最先进的滤波器方法,例如基于Quaternion的EKF,首先估计Jacobian EKF等。
translated by 谷歌翻译
视觉惯性化学测定法吸引了自主驾驶和机器人技术领域的广泛关注。视场(FOV)的大小在视觉播音(VO)和视觉惯性二次测量法(VO)中起着重要作用,作为大型FOV,可以感知各种周围的场景元素和特征。但是,当摄像机的字段到达负半平面时,就不能简单地使用[u,v,1]^t来表示图像特征点。为了解决这个问题,我们建议LF-VIO,这是一个具有极大FOV的相机的实时VIO框架。我们利用具有单位长度的三维矢量来表示特征点,并设计一系列算法来克服这一挑战。为了解决带有地位的位置和姿势的全景视觉探针数据集的稀缺性,我们介绍了Palvio数据集,该数据集用具有360 {\ deg} x的整个FOV的全景环形镜头(PAL)系统收集(40 {\ deg}) -120 {\ deg})和IMU传感器。有了全面的实验,在已建立的Palvio基准和公共Fisheye摄像机数据集上验证了建议的LF-VIO,其FOV为360 {\ deg} x(0 {\ deg} -93.5 {\ deg})。 LF-VIO优于最先进的视觉惯性 - 调节法。我们的数据集和代码可在https://github.com/flysoaryun/lf-vio上公开提供。
translated by 谷歌翻译
Visual Inertial Odometry (VIO) is one of the most established state estimation methods for mobile platforms. However, when visual tracking fails, VIO algorithms quickly diverge due to rapid error accumulation during inertial data integration. This error is typically modeled as a combination of additive Gaussian noise and a slowly changing bias which evolves as a random walk. In this work, we propose to train a neural network to learn the true bias evolution. We implement and compare two common sequential deep learning architectures: LSTMs and Transformers. Our approach follows from recent learning-based inertial estimators, but, instead of learning a motion model, we target IMU bias explicitly, which allows us to generalize to locomotion patterns unseen in training. We show that our proposed method improves state estimation in visually challenging situations across a wide range of motions by quadrupedal robots, walking humans, and drones. Our experiments show an average 15% reduction in drift rate, with much larger reductions when there is total vision failure. Importantly, we also demonstrate that models trained with one locomotion pattern (human walking) can be applied to another (quadruped robot trotting) without retraining.
translated by 谷歌翻译
准确的本地化是机器人导航系统的核心组成部分。为此,全球导航卫星系统(GNSS)可以在户外提供绝对的测量,因此消除了长期漂移。但是,将GNSS数据与其他传感器数据进行融合并不是微不足道的,尤其是当机器人在有和没有天空视图的区域之间移动时。我们提出了一种可靠的方法,该方法将原始GNSS接收器数据与惯性测量以及可选的LIDAR观测值紧密地融合在一起,以进行精确和光滑的移动机器人定位。提出了具有两种类型的GNSS因子的因子图。首先,基于伪龙的因素,该因素允许地球上进行全球定位。其次,基于载体阶段的因素,该因素可以实现高度准确的相对定位,这在对其他感应方式受到挑战时很有用。与传统的差异GNS不同,这种方法不需要与基站的连接。在公共城市驾驶数据集上,我们的方法达到了与最先进的算法相当的精度,该算法将视觉惯性探测器与GNSS数据融合在一起 - 尽管我们的方法不使用相机,但仅使用了惯性和GNSS数据。我们还使用来自汽车的数据以及在森林(例如森林)的环境中移动的四倍的机器人,证明了方法的鲁棒性。全球地球框架中的准确性仍然为1-2 m,而估计的轨迹无不连续性和光滑。我们还展示了如何紧密整合激光雷达测量值。我们认为,这是第一个将原始GNSS观察(而不是修复)与LIDAR融合在一起的系统。
translated by 谷歌翻译