多模式传感器的融合在自动驾驶和智能机器人中变得越来越流行,因为它可以比任何单个传感器提供更丰富的信息,从而在复杂的环境中增强可靠性。多传感器外部校准是传感器融合的关键因素之一。但是,由于传感器方式的种类以及对校准目标和人工的需求,这种校准很困难。在本文中,我们通过关注立体相机,热摄像机和激光传感器之间的外部转换,展示了一个新的无目标跨模式校准框架。具体而言,立体声和激光器之间的校准是通过最小化登记误差在3D空间中进行的,而通过优化边缘特征的对齐方式来估计其他两个传感器的热外部传感器。我们的方法不需要专门的目标,并且可以在没有人类相互作用的情况下进行一次镜头进行多传感器校准。实验结果表明,校准框架是准确且适用于一般场景的。
translated by 谷歌翻译
基于传感器的环境感知是自主驾驶系统的关键步骤,多个传感器之间的准确校准起着至关重要的作用。为了校准激光雷达和相机,现有方法通常是先校准相机的固有,然后校准激光雷达和相机的外部。如果在第一阶段无法正确校准摄像机的固有效果,则可以准确地校准激光镜相机外部校准并不容易。由于相机的复杂内部结构以及缺乏对摄像机内在校准的有效定量评估方法,因此在实际校准中,由于摄像机内在参数的微小误差,外部参数校准的准确性通常会降低。为此,我们提出了一种新型的基于目标的关节校准方法,用于摄像机内在和激光摄像机外部参数。首先,我们设计了一个新颖的校准板图案,在棋盘上增加了四个圆形孔,以定位激光姿势。随后,在棋盘板的再投影约束和圆形孔特征下定义的成本函数旨在求解相机的内在参数,失真因子和激光相机外部外部参数。最后,定量和定性实验是在实际和模拟环境中进行的,结果表明该方法可以达到准确性和鲁棒性能。开源代码可在https://github.com/opencalib/jointcalib上获得。
translated by 谷歌翻译
单眼相机传感器对于智能车辆操作和自动驾驶帮助至关重要,并且在交通控制基础设施中也很大程度上使用。但是,校准单眼摄像机很耗时,通常需要大量的手动干预。在这项工作中,我们提出了一种外部摄像机校准方法,该方法通过利用来自图像和点云的语义分割信息来自动化参数估计。我们的方法依赖于对摄像头姿势的粗略初始测量,并建立在具有高精度定位的车辆上的雷达传感器上,以捕获相机环境的点云。之后,通过执行语义分段传感器数据的激光镜头到相机的注册来获得相机和世界坐标空间之间的映射。我们在模拟和现实世界中评估了我们的方法,以证明校准结果中的低误差测量值。我们的方法适用于基础设施传感器和车辆传感器,而它不需要摄像机平台的运动。
translated by 谷歌翻译
几十年来,机器人和手眼校准都一直是研究的目的。尽管当前方法能够精确,可靠地识别机器人运动模型的参数,但它们仍然依赖于外部设备,例如校准对象,标记和/或外部传感器。本文没有试图将记录的测量结果适合已知对象的模型,而是将机器人校准视为离线大满贯问题,其中扫描姿势通过移动的运动学链将扫描姿势链接到空间中的固定点。因此,提出的框架允许使用任意眼睛深度传感器的机器人校准,从而无需任何外部工具就可以实现完全自主的自主校准。我的新方法是利用迭代最接近点算法的修改版本来运行多个3D记录的捆绑调整,以估计运动模型的最佳参数。对系统的详细评估显示在带有各种附着的3D传感器的真实机器人上。提出的结果表明,该系统以其成本的一小部分达到了与专用外部跟踪系统相当的精度。
translated by 谷歌翻译
确定多个激光痛和相机之间的外在参数对于自主机器人至关重要,尤其是对于固态激光痛,每个LIDAR单元具有很小的视野(FOV)(FOV),并且通常集体使用多个单元。对于360 $^\ circ $机械旋转激光盆,提出了大多数外部校准方法,其中假定FOV与其他LIDAR或相机传感器重叠。很少有研究工作集中在校准小型FOV激光痛和摄像头,也没有提高校准速度。在这项工作中,我们考虑了小型FOV激光痛和相机之间外部校准的问题,目的是缩短总校准时间并进一步提高校准精度。我们首先在LIDAR特征点的提取和匹配中实现自适应体素化技术。这样的过程可以避免在激光痛外校准中冗余创建$ k $ d树,并以比现有方法更可靠和快速提取激光雷达特征点。然后,我们将多个LIDAR外部校准制成LIDAR束调节(BA)问题。通过将成本函数得出最高为二阶,可以进一步提高非线性最小平方问题的求解时间和精度。我们提出的方法已在四个无目标场景和两种类型的固态激光雷达中收集的数据进行了验证,这些扫描模式,密度和FOV完全不同。在八个初始设置下,我们工作的鲁棒性也得到了验证,每个设置包含100个独立试验。与最先进的方法相比,我们的工作提高了激光雷达外部校准的校准速度15倍,激光摄像机外部校准(由50个独立试验产生的平均),同时保持准确,同时保持准确。
translated by 谷歌翻译
有了来自多个输入模式的信息,基于传感器融合的算法通常在机器人技术中表现出其单模式的表现。带有互补语义和深度信息的相机和激光镜头是复杂驾驶环境中检测任务的典型选择。但是,对于大多数摄像头融合算法,传感器套件的校准将极大地影响性能。更具体地说,检测算法通常需要多个传感器之间的准确几何关系作为输入,并且通常假定这些传感器的内容是同时捕获的。准备此类传感器套件涉及精心设计的校准钻机和准确的同步机制,并且制备过程通常是离线进行的。在这项工作中,提出了一个基于分割的框架,以共同估计摄像机套件校准中的几何和时间参数。首先将语义分割掩码应用于传感器模式,并通过像素双向损失优化校准参数。我们专门合并了来自光流的速度信息,以进行时间参数。由于仅在分割级别进行监督,因此在框架内不需要校准标签。提出的算法在KITTI数据集上进行了测试,结果显示了几何和时间参数的准确实时校准。
translated by 谷歌翻译
许多施工机器人任务(例如自动水泥抛光或机器人石膏喷涂)需要高精度3D表面信息。但是,目前在市场上发现的消费级深度摄像头还不够准确,对于需要毫米(mm)级别准确性的这些任务。本文介绍了SL传感器,SL传感器是一种结构化的光传感溶液,能够通过利用相移初量法(PSP)编码技术来生产5 Hz的高保真点云。将SL传感器与两个商用深度摄像机进行了比较 - Azure Kinect和Realsense L515。实验表明,SL传感器以室内表面重建应用的精度和精度超过了两个设备。此外,为了证明SL传感器成为机器人应用的结构化光传感研究平台的能力,开发了运动补偿策略,该策略允许SL传感器在传统PSP方法仅在传感器静态时工作时在线性运动过程中运行。现场实验表明,SL传感器能够生成喷雾灰泥表面的高度详细的重建。机器人操作系统(ROS)的软件和SL传感器的示例硬件构建是开源的,其目的是使结构化的光传感更容易被施工机器人社区访问。所有文档和代码均可在https://github.com/ethz-asl/sl_sensor/上获得。
translated by 谷歌翻译
移动机器人应用需要有关平台上各个传感器的几何位置的精确信息。此信息由外部校准参数给出,该参数定义了传感器如何相对于固定参考坐标系的旋转和翻译。错误的校准参数对典型的机器人估计任务有负面影响,例如大满贯。在这项工作中,我们提出了一种新方法,用于在机器人操作过程中连续估计校准参数。参数估计基于点云的匹配,这些点云是由传感器从多个静态观点获取的。因此,我们的方法不需要任何特殊的校准目标,并且适用于可以将测量值转换为点云的任何传感器。我们通过校准由2个LIDAR传感器,3个相机和一个成像雷达传感器组成的多传感器系统来证明我们方法的适用性。
translated by 谷歌翻译
尽管学术和公司的努力很大,但在不利视觉条件下的自动驾驶仍然证明具有挑战性。随着神经形态技术的成熟,其应用于机器人技术,自动驾驶汽车系统已成为积极研究的领域。低光和潜伏期的情况可以受益。为了使事件摄像机能够在感知任务中与LiDAR这样的主食传感器一起操作,我们提出了事件摄像机和激光镜头之间的直接,时间耦合的校准方法。利用事件摄像机的高动态范围和低光操作直接注册LIDAR激光返回,从而允许基于信息的相关方法优化两个传感器之间的6DOF外部校准。本文介绍了事件摄像机和激光镜头之间的第一种直接校准方法,从而消除了对基于框架的相机中介机构和/或高度准确的手部测量的依赖性。代码将公开可用。
translated by 谷歌翻译
事件摄像机最近在高动力或具有挑战性的照明情况下具有强大的常规摄像头的潜力,因此摄影机最近变得越来越受欢迎。通过同时定位和映射(SLAM)给出了可能受益于事件摄像机的重要问题。但是,为了确保在包含事件的多传感器大满贯上进展,需要新颖的基准序列。我们的贡献是使用包含基于事件的立体声摄像机,常规立体声摄像机,多个深度传感器和惯性测量单元的多传感器设置捕获的第一组基准数据集。该设置是完全硬件同步的,并且经过了准确的外部校准。所有序列都均均均均由高度准确的外部参考设备(例如运动捕获系统)捕获的地面真相数据。各个序列都包括小型和大型环境,并涵盖动态视觉传感器针对的特定挑战。
translated by 谷歌翻译
高保真大满贯系统的开发过程取决于它们对可靠数据集的验证。为了实现这一目标,我们提出了IBiscape,这是一种模拟基准,其中包括来自异质传感器的数据同步和获取API:立体声 - RGB/DVS,深度,IMU和GPS,以及地面真相场景场景细分和车辆自我摄入量。我们的基准是建立在卡拉模拟器上的,后端是虚幻的引擎,呈现出模拟现实世界的高动态风景。此外,我们提供34个适用于自动驾驶汽车导航的多模式数据集,包括用于场景理解等情况,例如事故等,以及基于与API集成的动态天气模拟类别的广泛框架质量。我们还将第一个校准目标引入了Carla图,以解决CARLA模拟DVS和RGB摄像机的未知失真参数问题。最后,使用IBISCAPE序列,我们评估了四个ORB-SLAM 3系统(单眼RGB,立体RGB,立体声视觉惯性(SVI)和RGB-D)的性能和玄武岩视觉惯性轴测计(VIO)系统,这些系统在模拟的大型大型序列上收集的各种序列 - 规模动态环境。关键字:基准,多模式,数据集,探针,校准,DVS,SLAM
translated by 谷歌翻译
虽然相机和激光雷达在大多数辅助和自主驾驶系统中广泛使用,但仅提出了少数作品来将用于在线传感器数据融合的摄像机和镜头的时间同步和外部校准相关联。时间和空间校准技术正面临缺乏相关性和实时的挑战。在本文中,我们介绍了姿势估计模型和环境鲁棒线的提取,以提高数据融合和即时在线校正能力的相关性。考虑到相邻力矩之间的点云匹配的对应关系,动态目标旨在寻求最佳政策。搜索优化过程旨在以计算精度和效率提供准确的参数。为了证明这种方法的好处,我们以基础真实价值在基蒂基准上进行评估。在在线实验中,与时间校准中的软同步方法相比,我们的方法提高了准确性38.5%。在空间校准时,我们的方法会在0.4秒内自动纠正干扰误差,并达到0.3度的精度。这项工作可以促进传感器融合的研究和应用。
translated by 谷歌翻译
Accurate and safety-quantifiable localization is of great significance for safety-critical autonomous systems, such as unmanned ground vehicles (UGV) and unmanned aerial vehicles (UAV). The visual odometry-based method can provide accurate positioning in a short period but is subjected to drift over time. Moreover, the quantification of the safety of the localization solution (the error is bounded by a certain value) is still a challenge. To fill the gaps, this paper proposes a safety-quantifiable line feature-based visual localization method with a prior map. The visual-inertial odometry provides a high-frequency local pose estimation which serves as the initial guess for the visual localization. By obtaining a visual line feature pair association, a foot point-based constraint is proposed to construct the cost function between the 2D lines extracted from the real-time image and the 3D lines extracted from the high-precision prior 3D point cloud map. Moreover, a global navigation satellite systems (GNSS) receiver autonomous integrity monitoring (RAIM) inspired method is employed to quantify the safety of the derived localization solution. Among that, an outlier rejection (also well-known as fault detection and exclusion) strategy is employed via the weighted sum of squares residual with a Chi-squared probability distribution. A protection level (PL) scheme considering multiple outliers is derived and utilized to quantify the potential error bound of the localization solution in both position and rotation domains. The effectiveness of the proposed safety-quantifiable localization system is verified using the datasets collected in the UAV indoor and UGV outdoor environments.
translated by 谷歌翻译
准确可靠的传感器校准对于在自主驾驶中融合激光雷达和惯性测量至关重要。本文提出了一种新型的3D-LIDAR和姿势传感器的新型三阶段外部校准方法,用于自主驾驶。第一阶段可以通过点云表面特征快速校准传感器之间的外部参数,以便可以将外部参数从大的初始误差范围缩小到很小的时间范围。第二阶段可以基于激光映射空间占用率进一步校准外部参数,同时消除运动失真。在最后阶段,校正了由自动驾驶汽车的平面运动引起的Z轴误差,并最终获得了精确的外部参数。具体而言,该方法利用了道路场景的自然特征,使其独立且易于在大规模条件下应用。现实世界数据集的实验结果证明了我们方法的可靠性和准确性。这些代码是在GitHub网站上开源的。据我们所知,这是第一个专门为自动驾驶设计的开源代码,用于校准激光雷达和姿势传感器外部参数。代码链接是https://github.com/opencalib/lidar2ins。
translated by 谷歌翻译
在本文中,我们使用从低成本消费者RGB-D传感器获取的RGB-D数据提出蘑菇检测,定位和3D姿势估计算法。我们使用RGB和深度信息进行不同的目的。从RGB颜色,我们首先提取蘑菇的初始轮廓位置,然后将初始轮廓位置和原始图像提供给蘑菇分割的活动轮廓。然后将这些分段蘑菇用作每个蘑菇检测的圆形Hough变换的输入,包括其中心和半径。一旦RGB图像中的每个蘑菇的中心位置都是已知的,我们就会使用深度信息在3D空间中定位它,即在世界坐标系中。在每个蘑菇的检测到的中心缺少深度信息的情况下,我们从每个蘑菇的半径内的最近可用深度信息估计。我们还使用预先准备的直立蘑菇模型来估计每个蘑菇的3D姿势。我们使用全球注册,然后是本地精炼登记方法进行此3D姿势估计。从估计的3D姿势,我们仅使用四元素表示的旋转部分作为每个蘑菇的方向。这些估计(X,Y,Z)位置,直径和蘑菇的方向用于机器人拣选应用。我们对3D印刷和真正的蘑菇进行了广泛的实验,表明我们的方法具有有趣的性能。
translated by 谷歌翻译
坐标测量机(CMM)一直是测量近50年或更长时间以上固体物体的准确性的基准。然而,随着3D扫描技术的出现,产生的点云的准确性和密度已接管。在这个项目中,我们不仅比较可在3D扫描软件中使用的不同算法,而且还比较了从相机和投影仪等现成组件中创建自己的3D扫描仪。我们的目标是:1。为3D扫描仪开发一个原型,以实现在对象的广泛类型上以最佳精度执行的系统。2.使用现成的组件最小化成本。3.到达非常接近CMM的准确性。
translated by 谷歌翻译
本地化和导航是基本的机器人任务,需要准确,最新的地图才能完成这些任务,众包数据可检测地图更改,提出了吸引人的解决方案。收集和处理众包数据需要低成本的传感器和算法,但是现有的方法依赖于昂贵的传感器或计算昂贵的算法。此外,没有现有数据集来评估点云更改检测。因此,本文提出了一个使用低成本传感器(如立体声摄像机和IMU)来检测点云图中的变化的新型框架。此外,我们创建了一个数据集和相应的指标,借助高保真模拟器虚幻引擎4.实验表明,我们的视觉框架可以有效地检测数据集中的变化。
translated by 谷歌翻译
凭借在运动扫描系统生产的LIDAR点云注册的目的,我们提出了一种新颖的轨迹调整程序,可以利用重叠点云和关节集成之间所选可靠的3D点对应关系的自动提取。 (调整)与所有原始惯性和GNSS观察一起。这是使用紧密耦合的方式执行的动态网络方法来执行,这通过在传感器处的错误而不是轨迹等级来实现最佳补偿的轨迹。 3D对应关系被制定为该网络内的静态条件,并且利用校正的轨迹和可能在调整内确定的其他参数,以更高的精度生成注册点云。我们首先描述了选择对应关系以及将它们作为新观察模型作为动态网络插入的方法。然后,我们描述了对具有低成本MEMS惯性传感器的实用空气激光扫描场景中提出框架的性能进行评估。在进行的实验中,建议建立3D对应关系的方法在确定各种几何形状的点对点匹配方面是有效的,例如树木,建筑物和汽车。我们的结果表明,该方法提高了点云登记精度,否则在确定的平台姿态或位置(以标称和模拟的GNSS中断条件)中的错误受到强烈影响,并且可能仅使用总计的一小部分确定未知的触觉角度建立的3D对应数量。
translated by 谷歌翻译
Robotics has been widely applied in smart construction for generating the digital twin or for autonomous inspection of construction sites. For example, for thermal inspection during concrete curing, continual monitoring of the concrete temperature is required to ensure concrete strength and to avoid cracks. However, buildings are typically too large to be monitored by installing fixed thermal cameras, and post-processing is required to compute the accumulated heat of each measurement point. Thus, by using an autonomous monitoring system with the capability of long-term thermal mapping at a large construction site, both cost-effectiveness and a precise safety margin of the curing period estimation can be acquired. Therefore, this study proposes a low-cost thermal mapping system consisting of a 2D range scanner attached to a consumer-level inertial measurement unit and a thermal camera for automated heat monitoring in construction using mobile robots.
translated by 谷歌翻译
For an autonomous vehicle, the ability to sense its surroundings and to build an overall representation of the environment by fusing different sensor data streams is fundamental. To this end, the poses of all sensors need to be accurately determined. Traditional calibration methods are based on: 1) using targets specifically designed for calibration purposes in controlled environments, 2) optimizing a quality metric of the point clouds collected while traversing an unknown but static environment, or 3) optimizing the match among per-sensor incremental motion observations along a motion path fulfilling special requirements. In real scenarios, however, the online applicability of these methods can be limited, as they are typically highly dynamic, contain degenerate paths, and require fast computations. In this paper, we propose an approach that tackles some of these challenges by formulating the calibration problem as a joint but structured optimization problem of all sensor calibrations that takes as input a summary of the point cloud information consisting of ground points and pole detections. We demonstrate the efficiency and quality of the results of the proposed approach in a set of experiments with LiDAR simulation and real data from an urban trip.
translated by 谷歌翻译