为了实现安全的自动驾驶汽车(AV)操作,至关重要的是,AV的障碍检测模块可以可靠地检测出构成安全威胁的障碍物(即是安全至关重要的)。因此,希望对感知系统的评估指标捕获对象的安全性 - 临界性。不幸的是,现有的感知评估指标倾向于对物体做出强烈的假设,而忽略了代理之间的动态相互作用,因此不能准确地捕获现实中的安全风险。为了解决这些缺点,我们通过考虑自我车辆和现场障碍之间的闭环动态相互作用来引入互动障碍感知障碍检测评估度量指标。通过从最佳控制理论借用现有理论,即汉密尔顿 - 雅各比的可达性,我们提出了一种可构造``安全区域''的计算障碍方法:一个国家空间中的一个区域,该区域定义了安全 - 关键障碍为了定义安全目的的位置指标。我们提出的安全区已在数学上完成,并且可以轻松计算以反映各种安全要求。使用Nuscenes检测挑战排行榜的现成检测算法,我们证明我们的方法是计算轻量级,并且可以更好地捕获与基线方法更好地捕获关键的安全感知错误。
translated by 谷歌翻译
由于关键的至关重要的自动驾驶汽车(AV)将很快在我们的社会中普遍存在,因此最近在整个行业和学术界都提出了许多可信赖的AV部署的安全概念。然而,在适当的安全概念上达成共识仍然是一项艰巨的任务。在本文中,我们倡导使用汉密尔顿 - 雅各布(HJ)的可及性作为比较现有安全概念的统一数学框架,并通过该框架的元素提出了定制安全概念(从而将其适用性扩展到方案)与方案的方法,从而将其与方案相关。以数据驱动方式对代理行为的隐性期望。具体而言,我们表明(i)现有的主要安全概念可以嵌入到HJ可达性框架中,从而实现一种共同的语言来比较和对比建模假设,并且(ii)HJ可达性可以作为感应性偏见,以有效地理由,在一个学习环境,大约是两个关键但经常被忽视的安全方面:责任和上下文依赖性。
translated by 谷歌翻译
随着自动驾驶汽车(AV)开发的发展,对环境中乘客和代理商的安全性的担忧已经上升。涉及自主控制车辆的每个现实世界交通碰撞都使这种担忧加剧了。开源自主驾驶实现显示了具有复杂相互依赖任务的软件体系结构,这很大程度上依赖于机器学习和深层神经网络(DNN),这些任务容易受到非确定性故障和角落案例的影响。这些复杂的子系统共同履行AV的任务,同时还保持安全性。尽管在提高对这些系统的经验可靠性和信心方面正在做出重大改进,但DNN验证的固有局限性在提供AV中提供确定性安全保证方面却引起了无法克服的挑战。我们提出了协同冗余(SR),这是一种用于复杂网络物理系统的安全架构,例如AV。 SR通过将系统的任务和安全任务解耦来提供可验证的安全保证。在独立履行其主要角色的同时,部分功能多余的任务和安全任务能够相互帮助,从而协同改善合并的系统。协同安全层仅使用可验证且可分析的软件来完成其任务。与任务层的密切协调可以更轻松,更早地检测系统中的紧急故障。 SR简化了任务层的优化目标并改进了其设计。 SR提供了高性能的安全部署,尽管本质上无法验证的机器学习软件。在这项工作中,我们首先介绍SR体系结构的设计和功能,然后评估解决方案的功效,重点关注AV中障碍物存在故障的关键问题。
translated by 谷歌翻译
对障碍的看法仍然是自动驾驶汽车的关键安全问题。现实世界中的碰撞表明,导致致命碰撞的自治缺陷源于障碍物的存在。开源自主驾驶实现显示了具有复杂相互依存的深神经网络的感知管道。这些网络无法完全验证,使其不适合安全至关重要的任务。在这项工作中,我们介绍了现有的基于LIDAR的经典障碍物检测算法的安全验证。我们对该障碍检测算法的功能建立了严格的界限。考虑到安全标准,这种界限允许确定可以可靠地满足标准的激光雷达传感器属性。对于基于神经网络的感知系统,此类分析尚未实现。我们对障碍检测系统进行了严格的分析,并基于现实世界传感器数据提供了经验结果。
translated by 谷歌翻译
在公共道路上大规模的自动车辆部署有可能大大改变当今社会的运输方式。尽管这种追求是在几十年前开始的,但仍有公开挑战可靠地确保此类车辆在开放环境中安全运行。尽管功能安全性是一个完善的概念,但测量车辆行为安全的问题仍然需要研究。客观和计算分析交通冲突的一种方法是开发和利用所谓的关键指标。在与自动驾驶有关的各种应用中,当代方法利用了关键指标的潜力,例如用于评估动态风险或过滤大型数据集以构建方案目录。作为系统地选择适当的批判性指标的先决条件,我们在自动驾驶的背景下广泛回顾了批判性指标,其属性及其应用的现状。基于这篇综述,我们提出了一种适合性分析,作为一种有条不紊的工具,可以由从业者使用。然后,可以利用提出的方法和最新审查的状态来选择涵盖应用程序要求的合理的测量工具,如分析的示例性执行所证明。最终,高效,有效且可靠的衡量自动化车辆安全性能是证明其可信赖性的关键要求。
translated by 谷歌翻译
在现代自治堆栈中,预测模块对于在其他移动代理的存在下计划动作至关重要。但是,预测模块的失败会误导下游规划师做出不安全的决定。确实,轨迹预测任务固有的高度不确定性可确保这种错误预测经常发生。由于需要提高自动驾驶汽车的安全而不受损害其性能的需求,我们开发了一个概率运行时监视器,该监视器检测到何时发生“有害”预测故障,即与任务相关的失败检测器。我们通过将轨迹预测错误传播到计划成本来推理其对AV的影响来实现这一目标。此外,我们的检测器还配备了假阳性和假阴性速率的性能度量,并允许进行无数据校准。在我们的实验中,我们将检测器与其他各种检测器进行了比较,发现我们的检测器在接收器操作员特征曲线下具有最高的面积。
translated by 谷歌翻译
Robots such as autonomous vehicles and assistive manipulators are increasingly operating in dynamic environments and close physical proximity to people. In such scenarios, the robot can leverage a human motion predictor to predict their future states and plan safe and efficient trajectories. However, no model is ever perfect -- when the observed human behavior deviates from the model predictions, the robot might plan unsafe maneuvers. Recent works have explored maintaining a confidence parameter in the human model to overcome this challenge, wherein the predicted human actions are tempered online based on the likelihood of the observed human action under the prediction model. This has opened up a new research challenge, i.e., \textit{how to compute the future human states online as the confidence parameter changes?} In this work, we propose a Hamilton-Jacobi (HJ) reachability-based approach to overcome this challenge. Treating the confidence parameter as a virtual state in the system, we compute a parameter-conditioned forward reachable tube (FRT) that provides the future human states as a function of the confidence parameter. Online, as the confidence parameter changes, we can simply query the corresponding FRT, and use it to update the robot plan. Computing parameter-conditioned FRT corresponds to an (offline) high-dimensional reachability problem, which we solve by leveraging recent advances in data-driven reachability analysis. Overall, our framework enables online maintenance and updates of safety assurances in human-robot interaction scenarios, even when the human prediction model is incorrect. We demonstrate our approach in several safety-critical autonomous driving scenarios, involving a state-of-the-art deep learning-based prediction model.
translated by 谷歌翻译
虽然自动车辆安全验证过程的最明显的部分涉及规划和控制系统,但它通常被忽视,后者的安全性至关重要地取决于前面环境感知的容错。现代感知系统具有复杂且经常基于机器学习的组件,具有各种故障模式,可以危及整体安全性。同时,由于资源约束,例如冗余执行的验证并不总是可行的。在本文中,我们解决了可行和高效的感知监视器的需求,并提出了一种轻质方法,有助于保护感知系统的完整性,同时保持额外的计算开销最小值。与现有解决方案相比,通过传感器检查的良好平衡组合来实现监视器 - 在此处使用LIDAR信息和对象运动历史上的合理性检查。它旨在检测自动化车辆环境中对象的距离和速度中的相关误差。结合适当的规划系统,这种监视器可以帮助安全自动化驱动可行。
translated by 谷歌翻译
对自动驾驶的运动计划的安全保证通常涉及在环境中无法控制的参与者(例如道路上的人类驱动的车辆)的任何动作下进行无碰撞的轨迹。结果,他们通常对此类参与者的行为采用保守的束缚,例如可达性分析。我们指出,规划轨迹严格避免全部可覆盖区域是不必要的,而且过于限制,因为将来观察环境将使我们能够修剪大多数。无视这种对未来更新的能力的能力可以禁止对人类驾驶员轻松导航的方案的解决方案。我们建议通过新颖的安全框架,全面的反应性安全来解释自动驾驶汽车对未来环境的反应。在模拟中验证了几种城市驾驶场景,例如未受保护的左转弯和车道合并,所得的计划算法称为反应性ILQR,表现出强大的谈判能力和更好的安全性。
translated by 谷歌翻译
我们研究了覆盖的阶段 - 避免多个代理的动态游戏,其中多个代理相互作用,并且每种希望满足不同的目标条件,同时避免失败状态。 Reach-避免游戏通常用于表达移动机器人运动计划中发现的安全关键最优控制问题。虽然这些运动计划问题存在各种方法,但我们专注于找到时间一致的解决方案,其中计划未来的运动仍然是最佳的,尽管先前的次优行动。虽然摘要,时间一致性封装了一个非常理想的财产:即使机器人早期从计划发出的机器人的运动发散,即,由于例如内在的动态不确定性或外在环境干扰,即使机器人的运动分歧,时间一致的运动计划也保持最佳。我们的主要贡献是一种计算 - 避免多种代理的算法算法,避免呈现时间一致的解决方案。我们展示了我们在两位和三位玩家模拟驾驶场景中的方法,其中我们的方法为所有代理商提供了安全控制策略。
translated by 谷歌翻译
我们解决了由具有不同驱动程序行为的道路代理人填充的密集模拟交通环境中的自我车辆导航问题。由于其异构行为引起的代理人的不可预测性,这种环境中的导航是挑战。我们提出了一种新的仿真技术,包括丰富现有的交通模拟器,其具有与不同程度的侵略性程度相对应的行为丰富的轨迹。我们在驾驶员行为建模算法的帮助下生成这些轨迹。然后,我们使用丰富的模拟器培训深度加强学习(DRL)策略,包括一组高级车辆控制命令,并在测试时间使用此策略来执行密集流量的本地导航。我们的政策隐含地模拟了交通代理商之间的交互,并计算了自助式驾驶员机动,例如超速,超速,编织和突然道路变化的激进驾驶员演习的安全轨迹。我们增强的行为丰富的模拟器可用于生成由对应于不同驱动程序行为和流量密度的轨迹组成的数据集,我们的行为的导航方案可以与最先进的导航算法相结合。
translated by 谷歌翻译
在本文中,我们提出了针对无人接地车辆(UGV)的新的控制屏障功能(CBF),该功能有助于避免与运动学(非零速度)障碍物发生冲突。尽管当前的CBF形式已经成功地保证了与静态障碍物的安全/碰撞避免安全性,但动态案例的扩展已获得有限的成功。此外,借助UGV模型,例如Unicycle或自行车,现有CBF的应用在控制方面是保守的,即在某些情况下不可能进行转向/推力控制。从经典的碰撞锥中汲取灵感来避免轨迹规划,我们介绍了其新颖的CBF配方,并具有对独轮车和自行车模型的安全性保证。主要思想是确保障碍物的速度W.R.T.车辆总是指向车辆。因此,我们构建了一个约束,该约束确保速度向量始终避开指向车辆的向量锥。这种新控制方法的功效在哥白尼移动机器人上进行了实验验证。我们将其进一步扩展到以自行车模型的形式扩展到自动驾驶汽车,并在Carla模拟器中的各种情况下证明了避免碰撞。
translated by 谷歌翻译
我们的运输世界正在迅速转变,自治水平不断提高。但是,为了获得全自动车辆的许可以供广泛的公众使用,有必要确保整个系统的安全性,这仍然是一个挑战。这尤其适用于基于AI的感知系统,这些系统必须处理各种环境条件和道路使用者,与此同时,应强调地检测所有相关的对象(即不应发生检测失误)。然而,有限的培训和验证数据可以证明无故障操作几乎无法实现,因为感知系统可能会暴露于公共道路上的新事物或未知的物体或条件。因此,需要针对基于AI的感知系统的新安全方法。因此,我们在本文中提出了一种新型的层次监视方法,能够从主要感知系统验证对象列表,可以可靠地检测检测失误,同时具有非常低的错误警报率。
translated by 谷歌翻译
自主系统(AS)越来越多地提出或在安全关键(SC)应用中使用,例如公路车辆。许多这样的系统利用复杂的传感器套件和处理来提供场景理解,从而使“决策”(例如路径计划)提供了信息。传感器处理通常利用机器学习(ML),并且必须在具有挑战性的环境中工作,此外,ML算法具有已知的局限性,例如,对象分类中错误的负面因素或假阳性的可能性。为常规SC系统开发的完善的安全分析方法与AS使用的AS,ML或传感系统没有很好的匹配。本文提出了适应良好的安全分析方法的适应,以解决AS的传感系统的细节,包括解决环境效应和ML的潜在故障模式,并为选择特定的指南或提示集提供了理由。安全分析。它继续展示了如何使用分析结果来告知AS系统的设计和验证,并通过对移动机器人进行部分分析来说明新方法。本文中的插图主要基于光学传感,但是本文讨论了该方法对其他感应方式的适用性及其在更广泛的安全过程中的作用,以解决AS的整体功能
translated by 谷歌翻译
行人在场的运动控制算法对于开发安全可靠的自动驾驶汽车(AV)至关重要。传统运动控制算法依赖于手动设计的决策政策,这些政策忽略了AV和行人之间的相互作用。另一方面,深度强化学习的最新进展允许在没有手动设计的情况下自动学习政策。为了解决行人在场的决策问题,作者介绍了一个基于社会价值取向和深入强化学习(DRL)的框架,该框架能够以不同的驾驶方式生成决策政策。该政策是在模拟环境中使用最先进的DRL算法培训的。还引入了适合DRL训练的新型计算效率的行人模型。我们执行实验以验证我们的框架,并对使用两种不同的无模型深钢筋学习算法获得的策略进行了比较分析。模拟结果表明,开发的模型如何表现出自然的驾驶行为,例如短暂的驾驶行为,以促进行人的穿越。
translated by 谷歌翻译
然而,由于各种交通/道路结构方案以及人类驾驶员行为的长时间分布,自动驾驶的感应,感知和本地化取得了重大进展,因此,对于智能车辆来说,这仍然是一个持开放态度的挑战始终知道如何在有可用的传感 /感知 /本地化信息的道路上做出和执行最佳决定。在本章中,我们讨论了人工智能,更具体地说,强化学习如何利用运营知识和安全反射来做出战略性和战术决策。我们讨论了一些与强化学习解决方案的鲁棒性及其对自动驾驶驾驶策略的实践设计有关的具有挑战性的问题。我们专注于在高速公路上自动驾驶以及增强学习,车辆运动控制和控制屏障功能的整合,从而实现了可靠的AI驾驶策略,可以安全地学习和适应。
translated by 谷歌翻译
一般而言,融合是人类驱动因素和自治车辆的具有挑战性的任务,特别是在密集的交通中,因为合并的车辆通常需要与其他车辆互动以识别或创造间隙并安全合并。在本文中,我们考虑了强制合并方案的自主车辆控制问题。我们提出了一种新的游戏 - 理论控制器,称为领导者跟随者游戏控制器(LFGC),其中自主EGO车辆和其他具有先验不确定驾驶意图的车辆之间的相互作用被建模为部分可观察到的领导者 - 跟随游戏。 LFGC估计基于观察到的轨迹的其他车辆在线在线,然后预测其未来的轨迹,并计划使用模型预测控制(MPC)来同时实现概率保证安全性和合并目标的自我车辆自己的轨迹。为了验证LFGC的性能,我们在模拟和NGSIM数据中测试它,其中LFGC在合并中展示了97.5%的高成功率。
translated by 谷歌翻译
研究表明,自治车辆(AVS)在由人类驱动因素组成的交通环境中保守,不适应当地条件和社会文化规范。众所周知,如果存在理解人类驱动程序的行为,则可以设计社会意识的AVS。我们提出了一种利用机器学习来预测人类驱动程序的行为的方法。这类似于人类如何隐含地解释道路上司机的行为,只能观察其车辆的轨迹。我们使用图形理论工具从轨迹和机器学习中提取驾驶员行为特征,以在流量和驾驶员行为中获得车辆的提取轨迹之间的计算映射。与此域中的现有方法相比,我们证明我们的方法是强大的,一般的,并且可扩展到广泛的应用程序,如自主导航。我们评估我们在美国,印度,中国和新加坡捕获的现实世界交通数据集以及模拟中的方法。
translated by 谷歌翻译
作为自动驾驶系统的核心部分,运动计划已受到学术界和行业的广泛关注。但是,由于非体力学动力学,尤其是在存在非结构化的环境和动态障碍的情况下,没有能够有效的轨迹计划解决方案能够为空间周期关节优化。为了弥合差距,我们提出了一种多功能和实时轨迹优化方法,该方法可以在任意约束下使用完整的车辆模型生成高质量的可行轨迹。通过利用类似汽车的机器人的差异平坦性能,我们使用平坦的输出来分析所有可行性约束,以简化轨迹计划问题。此外,通过全尺寸多边形实现避免障碍物,以产生较少的保守轨迹,并具有安全保证,尤其是在紧密约束的空间中。我们通过最先进的方法介绍了全面的基准测试,这证明了所提出的方法在效率和轨迹质量方面的重要性。现实世界实验验证了我们算法的实用性。我们将发布我们的代码作为开源软件包,目的是参考研究社区。
translated by 谷歌翻译
With the development of deep representation learning, the domain of reinforcement learning (RL) has become a powerful learning framework now capable of learning complex policies in high dimensional environments. This review summarises deep reinforcement learning (DRL) algorithms and provides a taxonomy of automated driving tasks where (D)RL methods have been employed, while addressing key computational challenges in real world deployment of autonomous driving agents. It also delineates adjacent domains such as behavior cloning, imitation learning, inverse reinforcement learning that are related but are not classical RL algorithms. The role of simulators in training agents, methods to validate, test and robustify existing solutions in RL are discussed.
translated by 谷歌翻译