在不同情况下,已经探索了相对旋转和翻译估计任务的最小解决方案,通常依赖于所谓的共同可见度图。但是,如何在没有重叠的两个框架之间建立直接旋转关系仍然是一个公开主题,如果解决了,它可以大大提高视觉尾声的准确性。在本文中,提出了一种新的最小解决方案,以通过利用新的图形结构来求解两个图像之间没有重叠区域的相对旋转估计,我们将其称为扩展性图(E-Graph)。与共同可见度图不同,高级标志(包括消失方向和平面正常)存储在我们的电子图纸中,这些图形在几何上可扩展。基于电子图表,旋转估计问题变得更简单,更优雅,因为它可以处理纯粹的旋转运动,并且需要更少的假设,例如曼哈顿/亚特兰大世界,平面/垂直运动。最后,我们将旋转估计策略嵌入完整的相机跟踪和映射系统中,该系统获得了6-DOF相机姿势和密集的3D网格模型。对公共基准测试的广泛实验表明,所提出的方法实现了最新的跟踪性能。
translated by 谷歌翻译
在面对低纹理的场景时,视觉测距算法倾向于降解 - 从例如时。人造环境 - 往往难以找到足够数量的点特征。替代的几何视觉提示,例如可以在这些场景中找到的线,这可能会特别有用。此外,这些场景通常存在结构规律,例如并行性或正交性,并持有曼哈顿世界的假设。在这些场所,在这项工作中,我们介绍了MSC-VO,这是一个RGB-D基的视觉测量方法,它结合了点和线条特征和利用,如果存在,那些结构规律和场景的曼哈顿轴。在我们的方法中,这些结构约束最初用于精确地估计提取线的3D位置。这些约束也与估计的曼哈顿轴相结合,并通过本地地图优化将相机姿势改进的点和线路的重新注入误差。这种组合使我们的方法能够在不存在上述约束的情况下操作,允许该方法用于更广泛的方案。此外,我们提出了一种新颖的多视图曼哈顿轴估计程序,主要依赖于线特征。使用几个公共数据集进行评估MSC-VO,优于其他最先进的解决方案,并且即使使用一些SLAM方法也是有利的。
translated by 谷歌翻译
在这项工作中,我们探讨了对物体在看不见的世界中同时本地化和映射中的使用,并提出了一个对象辅助系统(OA-Slam)。更确切地说,我们表明,与低级点相比,物体的主要好处在于它们的高级语义和歧视力。相反,要点比代表对象(Cuboid或椭圆形)的通用粗模型具有更好的空间定位精度。我们表明,将点和对象组合非常有趣,可以解决相机姿势恢复的问题。我们的主要贡献是:(1)我们使用高级对象地标提高了SLAM系统的重新定位能力; (2)我们构建了一个能够使用3D椭圆形识别,跟踪和重建对象的自动系统; (3)我们表明,基于对象的本地化可用于重新初始化或恢复相机跟踪。我们的全自动系统允许对象映射和增强姿势跟踪恢复,我们认为这可以极大地受益于AR社区。我们的实验表明,可以从经典方法失败的视点重新定位相机。我们证明,尽管跟踪损失损失,但这种本地化使SLAM系统仍可以继续工作,而这种损失可能会经常发生在不理会的用户中。我们的代码和测试数据在gitlab.inria.fr/tangram/oa-slam上发布。
translated by 谷歌翻译
在本文中,我们提出了一个与RGB,深度,IMU和结构化平面信息融合的紧密耦合的大满贯系统。传统的基于稀疏点的大满贯系统始终保持大量地图点以建模环境。大量的地图点使我们具有很高的计算复杂性,因此很难在移动设备上部署。另一方面,平面是人造环境中的常见结构,尤其是在室内环境中。我们通常可以使用少量飞机代表大型场景。因此,本文的主要目的是降低基于稀疏点的大满贯的高复杂性。我们构建了一个轻巧的后端地图,该地图由几个平面和地图点组成,以相等或更高的精度实现有效的捆绑捆绑调整(BA)。我们使用统计约束来消除优化中众多平面点的参数,并降低BA的复杂性。我们将同构和点对平面约束的参数和测量分开,并压缩测量部分,以进一步有效地提高BA的速度。我们还将平面信息集成到整个系统中,以实现强大的平面特征提取,数据关联和全球一致的平面重建。最后,我们进行消融研究,并用模拟和真实环境数据中的类似方法比较我们的方法。我们的系统在准确性和效率方面具有明显的优势。即使平面参数参与了优化,我们也可以使用平面结构有效地简化后端图。全局捆绑捆绑调整的速度几乎是基于稀疏点的SLAM算法的2倍。
translated by 谷歌翻译
由于其对环境变化的鲁棒性,视觉猛感的间接方法是受欢迎的。 ORB-SLAM2 \ CITE {ORBSLM2}是该域中的基准方法,但是,除非选择帧作为关键帧,否则它会消耗从未被重用的描述符。轻量级和高效,因为它跟踪相邻帧之间的关键点而不计算描述符。为此,基于稀疏光流提出了一种两个级粗到微小描述符独立的Keypoint匹配方法。在第一阶段,我们通过简单但有效的运动模型预测初始关键点对应,然后通过基于金字塔的稀疏光流跟踪鲁棒地建立了对应关系。在第二阶段,我们利用运动平滑度和末端几何形状的约束来改进对应关系。特别是,我们的方法仅计算关键帧的描述符。我们在\ texit {tum}和\ texit {icl-nuim} RGB-D数据集上测试Fastorb-Slam,并将其准确性和效率与九种现有的RGB-D SLAM方法进行比较。定性和定量结果表明,我们的方法实现了最先进的准确性,并且大约是ORB-SLAM2的两倍。
translated by 谷歌翻译
在本文中,我们考虑了视觉同时定位和映射(SLAM)的实际应用中的问题。随着技术在广泛范围中的普及和应用,SLAM系统的可实用性已成为一个在准确性和鲁棒性之后,例如,如何保持系统的稳定性并实现低文本和低文本和中的准确姿势估计动态环境以及如何在真实场景中改善系统的普遍性和实时性能。动态对象在高度动态的环境中的影响。我们还提出了一种新型的全局灰色相似性(GGS)算法,以实现合理的钥匙扣选择和有效的环闭合检测(LCD)。受益于GGS,PLD-SLAM可以在大多数真实场景中实现实时准确的姿势估计,而无需预先训练和加载巨大的功能词典模型。为了验证拟议系统的性能,我们将其与公共数据集Kitti,Euroc MAV和我们提供的室内立体声数据集的现有最新方法(SOTA)方法进行了比较。实验表明,实验表明PLD-SLAM在大多数情况下确保稳定性和准确性,具有更好的实时性能。此外,通过分析GGS的实验结果,我们可以发现它在关键帧选择和LCD中具有出色的性能。
translated by 谷歌翻译
a) Stereo input: trajectory and sparse reconstruction of an urban environment with multiple loop closures. (b) RGB-D input: keyframes and dense pointcloud of a room scene with one loop closure. The pointcloud is rendered by backprojecting the sensor depth maps from estimated keyframe poses. No fusion is performed.
translated by 谷歌翻译
随着线提供额外的约束,利用线特征可以有助于提高基于点的单眼视觉惯性内径(VIO)系统的定位精度。此外,在人工环境中,一些直线彼此平行。在本文中,我们设计了一种基于点和直线的VIO系统,它将直线分成结构直线(即彼此平行的直线)和非结构直线。另外,与使用四个参数表示3D直线的正交表示不同,我们仅使用两个参数来最小化结构直线和非结构直线的表示。此外,我们设计了一种基于采样点的直线匹配策略,提高了直线匹配的效率和成功率。我们的方法的有效性在EUROC和TUM VI基准的公共数据集上验证,与其他最先进的算法相比。
translated by 谷歌翻译
This paper presents ORB-SLAM, a feature-based monocular SLAM system that operates in real time, in small and large, indoor and outdoor environments. The system is robust to severe motion clutter, allows wide baseline loop closing and relocalization, and includes full automatic initialization. Building on excellent algorithms of recent years, we designed from scratch a novel system that uses the same features for all SLAM tasks: tracking, mapping, relocalization, and loop closing. A survival of the fittest strategy that selects the points and keyframes of the reconstruction leads to excellent robustness and generates a compact and trackable map that only grows if the scene content changes, allowing lifelong operation. We present an exhaustive evaluation in 27 sequences from the most popular datasets. ORB-SLAM achieves unprecedented performance with respect to other state-of-the-art monocular SLAM approaches. For the benefit of the community, we make the source code public.
translated by 谷歌翻译
本文展示了一个视觉大满贯系统,该系统利用点和线云,同时使用嵌入式零件平面重建(PPR)模块,共同提供结构图。为了与跟踪并行构建一致的尺度地图,例如使用单个摄像机会带来挑战,以歧义性歧义重建几何原始图,并进一步引入了捆绑调整(BA)的图形优化的难度。我们通过在重建的线和飞机上提出几个运行时优化来解决这些问题。然后根据单眼框架的设计将系统用深度和立体声传感器扩展。结果表明,我们提出的SLAM紧密结合了语义功能,以增强前端跟踪和后端优化。我们在各种数据集上详尽地评估了系统,并为社区开放代码(https://github.com/peterfws/structure-plp-slam)。
translated by 谷歌翻译
结合同时定位和映射(SLAM)估计和动态场景建模可以高效地在动态环境中获得机器人自主权。机器人路径规划和障碍避免任务依赖于场景中动态对象运动的准确估计。本文介绍了VDO-SLAM,这是一种强大的视觉动态对象感知SLAM系统,用于利用语义信息,使得能够在场景中进行准确的运动估计和跟踪动态刚性物体,而无需任何先前的物体形状或几何模型的知识。所提出的方法识别和跟踪环境中的动态对象和静态结构,并将这些信息集成到统一的SLAM框架中。这导致机器人轨迹的高度准确估计和对象的全部SE(3)运动以及环境的时空地图。该系统能够从对象的SE(3)运动中提取线性速度估计,为复杂的动态环境中的导航提供重要功能。我们展示了所提出的系统对许多真实室内和室外数据集的性能,结果表明了对最先进的算法的一致和实质性的改进。可以使用源代码的开源版本。
translated by 谷歌翻译
本文提出了一个语义平面SLAM系统,该系统使用实例平面分割网络中的提示来改善姿势估计和映射。尽管主流方法使用RGB-D传感器,但使用具有这样一个系统的单眼相机仍然面临着诸如强大的数据关联和精确的几何模型拟合等挑战。在大多数现有工作中,几何模型估计问题(例如同型估计和零件平面重建(PPR))通常通过标准(贪婪)RANSAC分别和顺序解决。但是,在没有有关场景的信息(即比例尺)的情况下,很难设置inlier-of-lefier-lefier threshold。在这项工作中,我们重新审视了这些问题,并认为可以通过最小化利用空间连贯性的能量函数来解决两个上述几何模型(同型/3D平面),即通过绘图剪切优化,这也可以解决实际问题,从而解决了实际问题。训练有素的CNN的输出不准确。此外,我们根据我们的实验提出了一种自适应参数设置策略,并报告对各种开源数据集进行全面评估。
translated by 谷歌翻译
在本文中,我们提出了一个紧密耦合的视觉惯性对象级多效性动态大满贯系统。即使在极其动态的场景中,它也可以为摄像机姿势,速度,IMU偏见并构建一个密集的3D重建对象级映射图。我们的系统可以通过稳健的传感器和对象跟踪,可以强牢固地跟踪和重建任意对象的几何形状,其语义和运动的几何形状,其语义和运动的几何形状,并通过逐步融合相关的颜色,深度,语义和前景对象概率概率。此外,当对象在视野视野外丢失或移动时,我们的系统可以在重新观察时可靠地恢复其姿势。我们通过定量和定性测试现实世界数据序列来证明我们方法的鲁棒性和准确性。
translated by 谷歌翻译
We propose a 6D RGB-D odometry approach that finds the relative camera pose between consecutive RGB-D frames by keypoint extraction and feature matching both on the RGB and depth image planes. Furthermore, we feed the estimated pose to the highly accurate KinectFusion algorithm, which uses a fast ICP (Iterative Closest Point) to fine-tune the frame-to-frame relative pose and fuse the depth data into a global implicit surface. We evaluate our method on a publicly available RGB-D SLAM benchmark dataset by Sturm et al. The experimental results show that our proposed reconstruction method solely based on visual odometry and KinectFusion outperforms the state-of-the-art RGB-D SLAM system accuracy. Moreover, our algorithm outputs a ready-to-use polygon mesh (highly suitable for creating 3D virtual worlds) without any postprocessing steps.
translated by 谷歌翻译
动态对象感知的SLAM(DOS)利用对象级信息以在动态环境中启用强大的运动估计。现有方法主要集中于识别和排除优化的动态对象。在本文中,我们表明,基于功能的视觉量大系统也可以通过利用两个观察结果来受益于动态铰接式对象的存在:(1)随着时间的推移,铰接对象的每个刚性部分的3D结构保持一致; (2)同一刚性零件上的点遵循相同的运动。特别是,我们提出了Airdos,这是一种动态的对象感知系统,该系统将刚度和运动限制引入模型铰接对象。通过共同优化相机姿势,对象运动和对象3D结构,我们可以纠正摄像头姿势估计,防止跟踪损失,并为动态对象和静态场景生成4D时空图。实验表明,我们的算法改善了在挑战拥挤的城市环境中的视觉大满贯算法的鲁棒性。据我们所知,Airdos是第一个动态对象感知的大满贯系统,该系统表明可以通过合并动态铰接式对象来改善相机姿势估计。
translated by 谷歌翻译
Figure 1: Example output from our system, generated in real-time with a handheld Kinect depth camera and no other sensing infrastructure. Normal maps (colour) and Phong-shaded renderings (greyscale) from our dense reconstruction system are shown. On the left for comparison is an example of the live, incomplete, and noisy data from the Kinect sensor (used as input to our system).
translated by 谷歌翻译
在本文中,我们开发了一个健壮,有效的视觉大满贯系统,该系统利用了低阈值,基线线和闭环钥匙帧功能的空间抑制。使用ORB-SLAM2,我们的方法包括立体声匹配,框架跟踪,本地捆绑包调整以及线路和点全局捆绑捆绑调整。特别是,我们根据基线贡献了重新注射。融合系统中的线路会消耗巨大的时间,我们减少了从分布点到利用特征点的空间抑制的时间。此外,低阈值关键点在处理低纹理方面可能更有效。为了克服跟踪钥匙帧的冗余问题,提出了有效且可靠的闭环跟踪钥匙框架。所提出的SLAM在Kitti和Euroc数据集中进行了广泛的测试,表明所提出的系统在各种情况下都优于最新方法。
translated by 谷歌翻译
目前的大流行使医疗系统在高负荷下运行。为了减轻它,具有高自主权的机器人可用于有效地在医院中执行非接触式操作,并减少医务人员和患者之间的交叉感染。虽然语义同步定位和映射(SLAM)技术可以提高机器人的自主权,但语义对象关联仍然是一个值得研究的问题。解决这个问题的关键是通过使用语义信息来正确地将多个对象标志的对象测量相关联,并实时地改进对象地标的姿势。为此,我们提出了一个分层对象关联策略和姿势改进方法。前者由两个级别组成,即短期对象关联和全球性。在第一级,我们采用短期对象关联的多对象跟踪,通过该关联,可以避免其位置关闭的对象之间的不正确关联。此外,短期对象关联可以在第二级别为全局对象关联的对象姿势提供更丰富的对象外观和更强大的估计。为了在地图中优化对象姿势,我们开发一种方法来选择与对象地标相关联的所有对象测量的最佳对象姿势。该方法在七个模拟医院序列1,真正的医院环境和基蒂数据集中综合评估。实验结果表明,我们的方法在对象关联的鲁棒性和准确性方面显然有所改善,以及语义猛烈的轨迹估计。
translated by 谷歌翻译
由于长期机器人操作中的地图尺寸的增长,现有的同时定位和映射方法的可伸缩性受到限制。此外,处理此类地图进行本地化和计划任务会导致船上所需的计算资源增加。为了解决长期操作中记忆消耗的问题,我们开发了一种新型的实时SLAM算法,即Meslam,该算法基于神经场隐含的地图表示。它结合了提出的全球映射策略,包括神经网络分布和区域跟踪,以及外部进程系统。结果,该算法能够有效地训练多个代表不同地图区域的网络,并在大规模环境中准确地训练姿势。实验结果表明,所提出的方法的准确性与最新方法(平均为6.6 cm的TUM RGB-D序列)相当,并且优于基线,IMAP $^*$。此外,拟议的SLAM方法提供了最紧凑的地图,而没有细节变形(1.9 MB(1.9 MB)在最先进的大满贯方法中储存57 m $^3 $)。
translated by 谷歌翻译
This paper presents ORB-SLAM3, the first system able to perform visual, visual-inertial and multi-map SLAM with monocular, stereo and RGB-D cameras, using pin-hole and fisheye lens models.The first main novelty is a feature-based tightly-integrated visual-inertial SLAM system that fully relies on Maximum-a-Posteriori (MAP) estimation, even during the IMU initialization phase. The result is a system that operates robustly in real time, in small and large, indoor and outdoor environments, and is two to ten times more accurate than previous approaches.The second main novelty is a multiple map system that relies on a new place recognition method with improved recall. Thanks to it, ORB-SLAM3 is able to survive to long periods of poor visual information: when it gets lost, it starts a new map that will be seamlessly merged with previous maps when revisiting mapped areas. Compared with visual odometry systems that only use information from the last few seconds, ORB-SLAM3 is the first system able to reuse in all the algorithm stages all previous information. This allows to include in bundle adjustment co-visible keyframes, that provide high parallax observations boosting accuracy, even if they are widely separated in time or if they come from a previous mapping session.Our experiments show that, in all sensor configurations, ORB-SLAM3 is as robust as the best systems available in the literature, and significantly more accurate. Notably, our stereo-inertial SLAM achieves an average accuracy of 3.5 cm in the EuRoC drone and 9 mm under quick hand-held motions in the room of TUM-VI dataset, a setting representative of AR/VR scenarios. For the benefit of the community we make public the source code.
translated by 谷歌翻译