具有深入学习神经网络(DNN)的端到端驾驶已成为行业和学术界自主驾驶的快速增长范式。然而,安全措施和可解释性仍然对此范式构成挑战。我们提出了一种端到端的驱动算法,其通过这些模型将多任务DNN,路径预测和控制模型集成在来自感官设备的数据流量的流程中,以驱动决策。它提供定量措施,以评估端到端驱动系统的整体,动态和实时性能,从而允许量化其安全性和解释性。 DNN是一个修改的UNET,是语义分割的众所周知的编码器解码器神经网络。它由一个分段,一个回归和用于车道分割,路径预测和车辆控制的两个分类任务组成。我们提出了具有不同复杂性的修改的UNET架构的三种变体,将它们与单个和多任务(MT)架构中的四种静态测量相比,并在实时仿真中识别了两种额外的动态措施中最好的任务。我们还提出了一种使用模型预测控制方法的学习和模型的纵向控制器。通过Stanley横向控制器,我们的结果表明,MTUNET在正常速度下曲率和横向偏移估计的曲率和横向偏移估计的曲率偏差估计,在正常速度下已经在真正的道路上驾驶的真实车上进行了测试。
translated by 谷歌翻译
灵感来自语义图像分割的UNET架构,我们使用深度可分离卷曲(DSUNET)提出了一种轻量级的UNET,用于自动驾驶中的通道检测和路径预测(PP)的端到端学习。我们还使用卷积神经网络(CNN)设计和集成PP算法,以形成模拟模型(CNN-PP),可用于在定性,定量,在主机驾驶汽车驾驶中的定性,定量,动态地评估CNN的性能以及所有以实时自治方式。DSunet在模型尺寸下为5.16x较轻,推动比UNET更快1.61倍。DSUNET-PP在动态模拟中的预测曲率和路径规划的平均误差中的平均误差中的UNET-PP优于UNET-PP。Dsunet-PP在横向误差中优于修改的UNET,在真正的公路上测试。这些结果表明,DSunet对自动驾驶中的车道检测和路径预测是有效且有效的。
translated by 谷歌翻译
由于资源限制,高效的计算系统长期以来一直是设计自动驾驶汽车的人的关键需求。此外,传感器成本和尺寸限制了自动驾驶汽车的开发。本文为基于视觉的自动车辆运行提供了有效的框架;前置摄像头和一些便宜的雷达是驱动环境感知的所需传感器。所提出的算法包括一个多任务UNET(MTUNET)网络,用于提取图像特征和约束的迭代迭代线性二次调节器(CILQR)模块,用于快速侧向运动和纵向运动计划。 MTUNET旨在同时求解车道线分割,自我车辆标题角度回归,道路类型分类和交通对象检测任务时,当尺寸228 x 228的RGB图像被送入其中时,其速度约为40 fps。然后,CILQR算法将处理的MTUNET输出和雷达数据作为输入,以产生驾驶命令,以进行侧向和纵向车辆自动化指导;两个最佳控制问题都可以在1 ms内解决。所提出的CILQR控制器比顺序二次编程(SQP)方法更有效,并且可以与MTUNET合作以在未看到的模拟环境中自动驾驶汽车,以实现泳道和汽车保护操作。我们的实验表明,提出的自主驾驶系统适用于现代汽车。
translated by 谷歌翻译
Multi-modal fusion is a basic task of autonomous driving system perception, which has attracted many scholars' interest in recent years. The current multi-modal fusion methods mainly focus on camera data and LiDAR data, but pay little attention to the kinematic information provided by the bottom sensors of the vehicle, such as acceleration, vehicle speed, angle of rotation. These information are not affected by complex external scenes, so it is more robust and reliable. In this paper, we introduce the existing application fields of vehicle bottom information and the research progress of related methods, as well as the multi-modal fusion methods based on bottom information. We also introduced the relevant information of the vehicle bottom information data set in detail to facilitate the research as soon as possible. In addition, new future ideas of multi-modal fusion technology for autonomous driving tasks are proposed to promote the further utilization of vehicle bottom information.
translated by 谷歌翻译
在本文中,我们提出了一个系统,以培训不仅从自我车辆收集的经验,而且还观察到的所有车辆的经验。该系统使用其他代理的行为来创建更多样化的驾驶场景,而无需收集其他数据。从其他车辆学习的主要困难是没有传感器信息。我们使用一组监督任务来学习一个中间表示,这是对控制车辆的观点不变的。这不仅在训练时间提供了更丰富的信号,而且还可以在推断过程中进行更复杂的推理。了解所有车辆驾驶如何有助于预测测试时的行为,并避免碰撞。我们在闭环驾驶模拟中评估该系统。我们的系统的表现优于公共卡拉排行榜上的所有先前方法,较大的利润率将驾驶得分提高了25,路线完成率提高了24分。我们的方法赢得了2021年的卡拉自动驾驶挑战。代码和数据可在https://github.com/dotchen/lav上获得。
translated by 谷歌翻译
The last decade witnessed increasingly rapid progress in self-driving vehicle technology, mainly backed up by advances in the area of deep learning and artificial intelligence. The objective of this paper is to survey the current state-of-the-art on deep learning technologies used in autonomous driving. We start by presenting AI-based self-driving architectures, convolutional and recurrent neural networks, as well as the deep reinforcement learning paradigm. These methodologies form a base for the surveyed driving scene perception, path planning, behavior arbitration and motion control algorithms. We investigate both the modular perception-planning-action pipeline, where each module is built using deep learning methods, as well as End2End systems, which directly map sensory information to steering commands. Additionally, we tackle current challenges encountered in designing AI architectures for autonomous driving, such as their safety, training data sources and computational hardware. The comparison presented in this survey helps to gain insight into the strengths and limitations of deep learning and AI approaches for autonomous driving and assist with design choices. 1
translated by 谷歌翻译
Figure 1: We introduce datasets for 3D tracking and motion forecasting with rich maps for autonomous driving. Our 3D tracking dataset contains sequences of LiDAR measurements, 360 • RGB video, front-facing stereo (middle-right), and 6-dof localization. All sequences are aligned with maps containing lane center lines (magenta), driveable region (orange), and ground height. Sequences are annotated with 3D cuboid tracks (green). A wider map view is shown in the bottom-right.
translated by 谷歌翻译
然而,由于各种交通/道路结构方案以及人类驾驶员行为的长时间分布,自动驾驶的感应,感知和本地化取得了重大进展,因此,对于智能车辆来说,这仍然是一个持开放态度的挑战始终知道如何在有可用的传感 /感知 /本地化信息的道路上做出和执行最佳决定。在本章中,我们讨论了人工智能,更具体地说,强化学习如何利用运营知识和安全反射来做出战略性和战术决策。我们讨论了一些与强化学习解决方案的鲁棒性及其对自动驾驶驾驶策略的实践设计有关的具有挑战性的问题。我们专注于在高速公路上自动驾驶以及增强学习,车辆运动控制和控制屏障功能的整合,从而实现了可靠的AI驾驶策略,可以安全地学习和适应。
translated by 谷歌翻译
交叉点是自主行驶中最复杂和事故的城市场景之一,其中制造安全和计算有效的决策是非微不足道的。目前的研究主要关注简化的交通状况,同时忽略了混合交通流量的存在,即车辆,骑自行车者和行人。对于城市道路而言,不同的参与者导致了一个非常动态和复杂的互动,从而冒着学习智能政策的困难。本文在集成决策和控制框架中开发动态置换状态表示,以处理与混合业务流的信号化交集。特别地,该表示引入了编码功能和总和运算符,以构建来自环境观察的驱动状态,能够处理不同类型和变体的交通参与者。构建了受约束的最佳控制问题,其中目标涉及跟踪性能,并且不同参与者和信号灯的约束分别设计以确保安全性。我们通过离线优化编码函数,值函数和策略函数来解决这个问题,其中编码函数给出合理的状态表示,然后用作策略和值函数的输入。禁止策略培训旨在重用从驾驶环境中的观察,并且使用时间通过时间来利用策略函数和编码功能联合。验证结果表明,动态置换状态表示可以增强IDC的驱动性能,包括具有大边距的舒适性,决策合规性和安全性。训练有素的驾驶政策可以实现复杂交叉口的高效和平滑通过,同时保证驾驶智能和安全性。
translated by 谷歌翻译
现代车辆配备各种驾驶员辅助系统,包括自动车道保持,这防止了无意的车道偏离。传统车道检测方法采用了手工制作或基于深度的学习功能,然后使用基于帧的RGB摄像机进行通道提取的后处理技术。用于车道检测任务的帧的RGB摄像机的利用易于照明变化,太阳眩光和运动模糊,这限制了车道检测方法的性能。在自主驾驶中的感知堆栈中结合了一个事件摄像机,用于自动驾驶的感知堆栈是用于减轻基于帧的RGB摄像机遇到的挑战的最有希望的解决方案之一。这项工作的主要贡献是设计车道标记检测模型,它采用动态视觉传感器。本文探讨了使用事件摄像机通过设计卷积编码器后跟注意引导的解码器的新颖性应用了车道标记检测。编码特征的空间分辨率由致密的区域空间金字塔池(ASPP)块保持。解码器中的添加剂注意机制可提高促进车道本地化的高维输入编码特征的性能,并缓解后处理计算。使用DVS数据集进行通道提取(DET)的DVS数据集进行评估所提出的工作的功效。实验结果表明,多人和二进制车道标记检测任务中的5.54 \%$ 5.54 \%$ 5.54 \%$ 5.03 \%$ 5.03 \%$ 5.03。此外,在建议方法的联盟($ iou $)分数上的交叉点将超越最佳最先进的方法,分别以6.50 \%$ 6.50 \%$ 6.5.37 \%$ 9.37 \%$ 。
translated by 谷歌翻译
受到人类使用多种感觉器官感知世界的事实的启发,具有不同方式的传感器在端到端驾驶中部署,以获得3D场景的全球环境。在以前的作品中,相机和激光镜的输入通过变压器融合,以更好地驾驶性能。通常将这些输入进一步解释为高级地图信息,以帮助导航任务。然而,从复杂地图输入中提取有用的信息很具有挑战性,因为冗余信息可能会误导代理商并对驾驶性能产生负面影响。我们提出了一种新颖的方法,可以从矢量化高清(HD)地图中有效提取特征,并将其利用在端到端驾驶任务中。此外,我们设计了一个新的专家,以通过考虑多道路规则来进一步增强模型性能。实验结果证明,两种提出的改进都可以使我们的代理人与其他方法相比获得卓越的性能。
translated by 谷歌翻译
We introduce CARLA, an open-source simulator for autonomous driving research. CARLA has been developed from the ground up to support development, training, and validation of autonomous urban driving systems. In addition to open-source code and protocols, CARLA provides open digital assets (urban layouts, buildings, vehicles) that were created for this purpose and can be used freely. The simulation platform supports flexible specification of sensor suites and environmental conditions. We use CARLA to study the performance of three approaches to autonomous driving: a classic modular pipeline, an endto-end model trained via imitation learning, and an end-to-end model trained via reinforcement learning. The approaches are evaluated in controlled scenarios of increasing difficulty, and their performance is examined via metrics provided by CARLA, illustrating the platform's utility for autonomous driving research.
translated by 谷歌翻译
最近,自主驾驶社会上有许多进展,吸引了学术界和工业的很多关注。然而,现有的作品主要专注于汽车,自动驾驶卡车算法和模型仍然需要额外的开发。在本文中,我们介绍了智能自动驾驶卡车系统。我们所呈现的系统由三个主要组成部分组成,1)一个现实的交通仿真模块,用于在测试场景中产生现实的交通流量,2)设计和评估了在现实世界部署中模仿实际卡车响应的高保真卡车模型,3 )具有基于学习的决策算法和多模轨迹策划仪的智能计划模块,考虑到卡车的约束,道路斜率变化和周围的交通流量。我们为每个组分单独提供定量评估,以证明每个部件的保真度和性能。我们还将我们的建议系统部署在真正的卡车上,并进行真实的世界实验,表明我们的系统能力缓解了SIM-TO-REAL差距。我们的代码可以在https://github.com/inceptioresearch/iits提供
translated by 谷歌翻译
当前的端到端自动驾驶方法要么基于计划的轨迹运行控制器,要么直接执行控制预测,这已经跨越了两条单独研究的研究线。本文看到了它们彼此的潜在相互利益,主动探讨了这两个发展良好的世界的结合。具体而言,我们的集成方法分别有两个用于轨迹计划和直接控制的分支。轨迹分支可以预测未来的轨迹,而控制分支则涉及一种新颖的多步预测方案,以便可以将当前动作与未来状态之间的关系进行推理。连接了两个分支,因此控制分支在每个时间步骤中从轨迹分支接收相应的指导。然后将来自两个分支的输出融合以实现互补的优势。我们的结果在闭环城市驾驶环境中进行了评估,并使用CARLA模拟器具有挑战性的情况。即使有了单眼相机的输入,建议的方法在官方Carla排行榜上排名第一$,超过了其他具有多个传感器或融合机制的复杂候选人。源代码和数据将在https://github.com/openperceptionx/tcp上公开提供。
translated by 谷歌翻译
自动化驾驶系统(广告)开辟了汽车行业的新领域,为未来的运输提供了更高的效率和舒适体验的新可能性。然而,在恶劣天气条件下的自主驾驶已经存在,使自动车辆(AVS)长时间保持自主车辆(AVS)或更高的自主权。本文评估了天气在分析和统计方式中为广告传感器带来的影响和挑战,并对恶劣天气条件进行了解决方案。彻底报道了关于对每种天气的感知增强的最先进技术。外部辅助解决方案如V2X技术,当前可用的数据集,模拟器和天气腔室的实验设施中的天气条件覆盖范围明显。通过指出各种主要天气问题,自主驾驶场目前正在面临,近年来审查硬件和计算机科学解决方案,这项调查概述了在不利的天气驾驶条件方面的障碍和方向的障碍和方向。
translated by 谷歌翻译
配备了广泛的传感器,主要的自主驾驶解决方案正变得越来越面向安全系统设计。尽管这些传感器已经奠定了坚实的基础,但最新的大多数生产解决方案仍然属于L2阶段。其中,Comma.ai出现在我们的视线中,声称一个售价999美元的售后设备装有单个相机和内部的木板具有处理L2场景的能力。该项目与Comma.ai发布的整个系统的开源软件一起名为OpenPilot。可能吗?如果是这样,它如何成为可能?考虑到好奇心,我们深入研究了OpenPilot,并得出结论,其成功的关键是端到端系统设计,而不是传统的模块化框架。该模型被简要介绍为SuperCombo,它可以从单眼输入中预测自我车辆的未来轨迹和其他道路语义。不幸的是,无法公开提供所有这些工作的培训过程和大量数据。为了进行深入的调查,我们尝试重新实现培训细节并测试公共基准测试的管道。这项工作中提出的重构网络称为“ op-Deepdive”。为了将我们的版本与原始SuperCombo进行公平的比较,我们引入了双模型部署方案,以测试现实世界中的驾驶性能。 Nuscenes,Comma2K19,Carla和内部现实场景的实验结果证明了低成本设备确实可以实现大多数L2功能,并且与原始的SuperCombo模型相当。在本报告中,我们想分享我们的最新发现,并阐明了从工业产品级别方面进行端到端自动驾驶的新观点,并有可能激发社区继续提高绩效。我们的代码,基准在https://github.com/openperceptionx/openpilot-deepdive上。
translated by 谷歌翻译
Visual perception plays an important role in autonomous driving. One of the primary tasks is object detection and identification. Since the vision sensor is rich in color and texture information, it can quickly and accurately identify various road information. The commonly used technique is based on extracting and calculating various features of the image. The recent development of deep learning-based method has better reliability and processing speed and has a greater advantage in recognizing complex elements. For depth estimation, vision sensor is also used for ranging due to their small size and low cost. Monocular camera uses image data from a single viewpoint as input to estimate object depth. In contrast, stereo vision is based on parallax and matching feature points of different views, and the application of deep learning also further improves the accuracy. In addition, Simultaneous Location and Mapping (SLAM) can establish a model of the road environment, thus helping the vehicle perceive the surrounding environment and complete the tasks. In this paper, we introduce and compare various methods of object detection and identification, then explain the development of depth estimation and compare various methods based on monocular, stereo, and RDBG sensors, next review and compare various methods of SLAM, and finally summarize the current problems and present the future development trends of vision technologies.
translated by 谷歌翻译
由于安全问题,自动驾驶汽车的大规模部署已不断延迟。一方面,全面的场景理解是必不可少的,缺乏这种理解会导致易受罕见但复杂的交通状况,例如突然出现未知物体。但是,从全球环境中的推理需要访问多种类型的传感器以及多模式传感器信号的足够融合,这很难实现。另一方面,学习模型中缺乏可解释性也会因无法验证的故障原因阻碍安全性。在本文中,我们提出了一个安全增强的自主驾驶框架,称为可解释的传感器融合变压器(Interfuser),以完全处理和融合来自多模式多视图传感器的信息,以实现全面的场景理解和对抗性事件检测。此外,我们的框架是从我们的框架中生成的中间解释功能,该功能提供了更多的语义,并被利用以更好地约束操作以在安全集内。我们在Carla基准测试中进行了广泛的实验,我们的模型优于先前的方法,在公共卡拉排行榜上排名第一。
translated by 谷歌翻译
为了关注自动驾驶工具的点对点导航的任务,我们提出了一种新颖的深度学习模型,该模型接受了端到端和多任务学习的方式,以同时执行感知和控制任务。该模型用于通过按照全球规划器定义的一系列路线来安全地驱动自我车辆。模型的感知部分用于编码RGBD摄像机提供的高维观察数据,同时执行语义分割,语义深度云(SDC)映射以及交通灯状态和停止符号预测。然后,控制零件将解码编码的功能以及GPS和速度计提供的其他信息,以预测带有潜在特征空间的路点。此外,还采用了两名代理来处理这些输出,并制定控制策略,以确定转向,油门和制动的水平为最终动作。在Carla模拟器上评估该模型,其各种情况由正常的对抗情况和不同的风雨制成,以模仿现实世界中的情况。此外,我们对一些最近的模型进行了比较研究,以证明驾驶多个方面的性能是合理的。此外,我们还对SDC映射和多代理进行了消融研究,以了解其角色和行为。结果,即使参数和计算负载较少,我们的模型也达到了最高的驾驶得分。为了支持未来的研究,我们可以在https://github.com/oskarnatan/end-to-end-drive上分享我们的代码。
translated by 谷歌翻译
我们提出了DeePIPC,这是一种端到端的多任务模型,可在自动驾驶移动机器人自动驾驶时处理感知和控制任务。该模型由两个主要部分组成:感知和控制器模块。感知模块拍摄RGB图像和深度图来执行语义分割和鸟类视图(BEV)语义映射,并提供其编码功能。同时,控制器模块通过测量GNSS位置和角速度处理这些功能,以估算带有潜在特征的航路点。然后,使用两种不同的代理将航路点和潜在特征转换为一组导航控件,以驱动机器人。通过预测驾驶记录并在实际环境中的各种条件下进行自动驾驶来评估该模型。基于实验结果,DEEPIPC与其他模型相比,即使参数较少,DEEPIPC也达到了最佳的驾驶性和多任务性能。
translated by 谷歌翻译