由于客户的好处(较低的价格),司机(更高收入),聚合公司(更高的收入)和环境(较少的车辆),按需乘坐游泳池(例如,优步池,抓取股份)变得非常受欢迎。匹配车辆与请求组合的显着计算复杂性意味着传统的乘坐汇集方法是近视,因为它们不考虑当前匹配对车辆/驱动程序的未来价值的影响。最近,神经近似动态编程(Neuradp)就使用了具有近似动态编程(ADP)的值分解来优于考虑各个代理(车辆)所选择的行动对该代理的未来价值的影响。但是,为了确保可扩展性和促进城市规模的乘坐汇集,Neuradp完全忽略了其他代理行为对个别代理/车辆价值的影响。正如我们实验结果所示,忽略其他代理对个人价值的行为的影响可能会对整体性能产生重大影响,因为当需求增加车辆之间的竞争时。我们的主要贡献是基于通过联合条件概率计算条件期望的新机制,以便在不增加培训或决策的复杂性的情况下捕获对其他代理行动的依赖性。我们表明,我们的新方法,条件基于期望的价值分解(CEVD)在服务的整体请求方面优先于Neuradp高达9.76%,这在城市宽的基准列表数据集中是一个重要的改进。
translated by 谷歌翻译
在本文中,我们介绍了有关典型乘车共享系统中决策优化问题的强化学习方法的全面,深入的调查。涵盖了有关乘车匹配,车辆重新定位,乘车,路由和动态定价主题的论文。在过去的几年中,大多数文献都出现了,并且要继续解决一些核心挑战:模型复杂性,代理协调和多个杠杆的联合优化。因此,我们还引入了流行的数据集和开放式仿真环境,以促进进一步的研发。随后,我们讨论了有关该重要领域的强化学习研究的许多挑战和机会。
translated by 谷歌翻译
We consider the sequential decision-making problem of making proactive request assignment and rejection decisions for a profit-maximizing operator of an autonomous mobility on demand system. We formalize this problem as a Markov decision process and propose a novel combination of multi-agent Soft Actor-Critic and weighted bipartite matching to obtain an anticipative control policy. Thereby, we factorize the operator's otherwise intractable action space, but still obtain a globally coordinated decision. Experiments based on real-world taxi data show that our method outperforms state of the art benchmarks with respect to performance, stability, and computational tractability.
translated by 谷歌翻译
我们研究了在国内捐助服务服务中引起的车辆路由问题的随机变体。我们考虑的问题结合了以下属性。就客户是随机的,但不仅限于预定义的集合,因此请求服务的客户是可变的,因为它们可能出现在给定的服务领域的任何地方。此外,需求量是随机的,并且在拜访客户时会观察到。目的是在满足车辆能力和时间限制的同时最大化预期的服务需求。我们将此问题称为VRP,具有高度可变的客户基础和随机需求(VRP-VCSD)。对于这个问题,我们首先提出了马尔可夫决策过程(MDP)的配方,该制定代表了一位决策者建立所有车辆路线的经典集中决策观点。虽然结果配方却很棘手,但它为我们提供了开发新的MDP公式的地面,我们称其为部分分散。在此公式中,动作空间被车辆分解。但是,由于我们执行相同的车辆特定政策,同时优化集体奖励,因此权力下放是不完整的。我们提出了几种策略,以减少与部分分散的配方相关的国家和行动空间的维度。这些产生了一个更容易解决的问题,我们通过加强学习来解决。特别是,我们开发了一种称为DECQN的Q学习算法,具有最先进的加速技术。我们进行了彻底的计算分析。结果表明,DECN的表现大大优于三个基准策略。此外,我们表明我们的方法可以与针对VRP-VCSD的特定情况开发的专业方法竞争,在该情况下,客户位置和预期需求是事先知道的。
translated by 谷歌翻译
在带有电动车队的乘车系统中,充电是一个复杂的决策过程。大多数电动汽车(EV)出租车服务要求驾驶员做出利己主义决定,从而导致分散的临时充电策略。车辆之间通常缺乏或不共享移动性系统的当前状态,因此无法做出最佳的决定。大多数现有方法都不将时间,位置和持续时间结合到全面的控制算法中,也不适合实时操作。因此,我们提出了一种实时预测性充电方法,用于使用一个名为“闲置时间开发(ITX)”的单个操作员进行乘车服务,该方法预测了车辆闲置并利用这些时期来收获能量的时期。它依靠图形卷积网络和线性分配算法来设计最佳的车辆和充电站配对,以最大程度地提高利用的空闲时间。我们通过对纽约市现实世界数据集的广泛模拟研究评估了我们的方法。结果表明,就货币奖励功能而言,ITX的表现优于所有基线方法至少提高5%(相当于6,000个车辆操作的$ 70,000),该奖励奖励功能的建模旨在复制现实世界中乘车系统的盈利能力。此外,与基线方法相比,ITX可以将延迟至少减少4.68%,并且通常通过促进顾客在整个车队中更好地传播乘客的舒适度。我们的结果还表明,ITX使车辆能够在白天收获能量,稳定电池水平,并增加需求意外激增的弹性。最后,与表现最佳的基线策略相比,峰值负载减少了17.39%,这使网格操作员受益,并为更可持续的电网使用铺平了道路。
translated by 谷歌翻译
乘客和货物交付的可行性服务服务的无处不在的增长在运输系统领域内带来了各种挑战和机遇。因此,正在开发智能运输系统以最大限度地提高运营盈利能力,用户的便利性和环境可持续性。与riveShiening的最后一次交付的增长呼吁进行高效且凝聚力的系统,运输乘客和货物。现有方法使用静态路由方法来解决考虑到请求的需求和在路线规划期间车辆之间的货物转移。在本文中,我们为合并的商品和乘客运输提供了一种动态和需求意识的舰队管理框架,该乘客运输能够通过允许司机谈判到相互合适的价格中的决策过程中的乘客和司机。乘客接受/拒绝,(2)货物与车辆的匹配,以及货物的多跳转移,(3)基于该插入成本,在沿着它们的途径来动态地为每个车辆提供最佳路线,从而确定匹配的插入成本(4)使用深度加强学习(RL),(5)允许在每个车辆的分布推断,同时共同优化舰队目标,向预期的高乘客和商品需求调度怠速车辆。我们所提出的模型可在每个车辆内独立部署,因为这最大限度地减少了与分布式系统的增长相关的计算成本,并将其民主化决策对每个人进行决策。与各种车辆类型,商品和乘客效用的仿真表明,与不考虑联合负载运输或动态多跳路线规划的其他方法相比,我们的方法的有效性。
translated by 谷歌翻译
对同日发货(SDD)的需求在过去几年中迅速增加,并在Covid-19大流行期间特别蓬勃发展。快速增长并非没有挑战。 2016年,由于较低的成员资格和距离仓库的距离远远,某些少数民族社区被排除在接受亚马逊的SDD服务之外,提高了对公平的担忧。在本文中,我们研究了向客户提供公平的SDD服务的问题。服务区域被分成不同的区域。在一天中,客户请求SDD服务以及请求和交付位置的时机未提前知道。调度员动态分配车辆,以便在交付截止日期前将交付给予接受客户。除整体服务率(实用程序)外,我们还最大限度地提高了所有地区的最小区域服务率(公平性)。我们将问题模拟为多目标马尔可夫决策过程,并开发深度Q学习解决方案方法。我们介绍了从税率到实际服务的新颖改造,从而创造了一个稳定和有效的学习过程。计算结果证明了我们对在不同客户地理位置中的空间和时间内的不公平性的方法的有效性。我们还表明,这种有效性有效地与不同的仓库位置有效,提供业务,其中有机会从任何位置实现更好的公平性。此外,我们考虑忽略公平性在服务中的影响,结果表明,当客户对服务水平的期望很高时,我们的政策最终越优越。
translated by 谷歌翻译
我们研究了大规模实时乘车系统的优化,并提出了一种模块化设计方法,用于乘车共享的组件算法(CAR)。我们评估了一套多种汽车(总共14辆),重点是乘车共享的关键算法组件。我们采用一种多目标方法,评估了与全球效率,复杂性,乘客,驾驶员和平台激励措施有关的12个指标,以在各个方面非常类似于现实,重点介绍了能力二的工具。据我们所知,这是迄今为止最大,最全面的评估。我们(i)确定在全球,乘客,驾驶员或平台指标上表现良好的汽车,(ii)证明,轻巧的搬迁计划可以显着提高服务质量高达$ 50 \%\%$,并且(iii)强调了一种实用的,一种实用的,在所有指标中都能很好地运行,可扩展的启动汽车。
translated by 谷歌翻译
在本文中,我们研究了电子商务运营商面临的顺序决策问题,与何时从中央仓库发送车辆以服务于客户请求,并在哪个命令下提供服务,假设是在到达仓库的包裹是随机且动态的。目的是最大化在服务时间内可以交付的包裹数。我们提出了两种解决此问题的强化学习方法,一种基于策略函数近似(PFA),第二种基于值函数近似(VFA)。两种方法都与前景策略相结合,其中未来发布日期以蒙特卡洛的方式进行采样,并使用量身定制的批处理方法来近似未来状态的价值。我们的PFA和VFA很好地利用了基于分支机构的精确方法来提高决策质量。我们还建立了足够的条件,可以将最佳策略的部分表征并将其集成到PFA/VFA中。在基于720个基准实例的实证研究中,我们使用具有完美信息的上限进行了竞争分析,我们表明PFA和VFA的表现极大地超过了两种替代近视方法。总体而言,PFA提供最佳解决方案,而VFA(从两阶段随机优化模型中受益)在解决方案质量和计算时间之间取得了更好的权衡。
translated by 谷歌翻译
物流运营商最近提出了一项技术,可以帮助降低城市货运分销中的交通拥堵和运营成本,最近提出了移动包裹储物柜(MPLS)。鉴于他们能够在整个部署领域搬迁,因此他们具有提高客户可访问性和便利性的潜力。在这项研究中,我们制定了移动包裹储物柜问题(MPLP),这是位置路由问题(LRP)的特殊情况,该案例确定了整天MPL的最佳中途停留位置以及计划相应的交付路线。开发了基于混合Q学习网络的方法(HQM),以解决所得大问题实例的计算复杂性,同时逃脱了本地Optima。此外,HQM与全球和局部搜索机制集成在一起,以解决经典强化学习(RL)方法所面临的探索和剥削困境。我们检查了HQM在不同问题大小(最多200个节点)下的性能,并根据遗传算法(GA)进行了基准测试。我们的结果表明,HQM获得的平均奖励比GA高1.96倍,这表明HQM具有更好的优化能力。最后,我们确定有助于车队规模要求,旅行距离和服务延迟的关键因素。我们的发现概述了MPL的效率主要取决于时间窗口的长度和MPL中断的部署。
translated by 谷歌翻译
In many domains such as transportation and logistics, search and rescue, or cooperative surveillance, tasks are pending to be allocated with the consideration of possible execution uncertainties. Existing task coordination algorithms either ignore the stochastic process or suffer from the computational intensity. Taking advantage of the weakly coupled feature of the problem and the opportunity for coordination in advance, we propose a decentralized auction-based coordination strategy using a newly formulated score function which is generated by forming the problem into task-constrained Markov decision processes (MDPs). The proposed method guarantees convergence and at least 50% optimality in the premise of a submodular reward function. Furthermore, for the implementation on large-scale applications, an approximate variant of the proposed method, namely Deep Auction, is also suggested with the use of neural networks, which is evasive of the troublesome for constructing MDPs. Inspired by the well-known actor-critic architecture, two Transformers are used to map observations to action probabilities and cumulative rewards respectively. Finally, we demonstrate the performance of the two proposed approaches in the context of drone deliveries, where the stochastic planning for the drone league is cast into a stochastic price-collecting Vehicle Routing Problem (VRP) with time windows. Simulation results are compared with state-of-the-art methods in terms of solution quality, planning efficiency and scalability.
translated by 谷歌翻译
传统上,交通事故管理(TIM)计划协调紧急资源的部署到即时事件请求,而无需容纳环境中事件演变的相互依存关系。但是,忽略对环境中事件在当前部署决策的过程中的固有相互依赖性是短暂的,而由此产生的幼稚部署策略可能会大大恶化整个事件延迟对网络的影响。环境中事件进化的相互依存关系,包括事件事件之间的事件,以及在近未实现请求中的资源可用性与预期的即时事件请求期间的持续时间之间的相互依存关系,应在进行当前阶段部署时通过浏览模型来考虑决定。这项研究基于分布式约束优化问题(DCOP)开发了一个新的主动框架,以解决上述局限性,克服了无法适应TIM问题中依赖关系的常规TIM模型。此外,配制了优化目标以纳入无人机(UAV)。无人机在蒂姆(Tim)中的作用包括探索不确定的交通状况,检测出意外事件以及从道路交通传感器中增加信息。我们对多个TIM情景模型的鲁棒性分析显示了使用本地搜索启发式方法显示令人满意的性能。总体而言,我们的模型报告说,与常规TIM模型相比,总事件延迟的大幅减少。在无人机的支持下,我们证明了通过紧急车辆较短的响应时间的总体事件延迟进一步减少,并且与估计的事件延迟影响相关的不确定性减少。
translated by 谷歌翻译
大规模乘车系统通常将各个请求级别的实时路由与宏观模型预测控制(MPC)优化相结合,用于动态定价和车辆重定位。MPC依赖于需求预测,并优化在更长的时间范围内以补偿路由优化的近视性质。然而,较长的地平线增加了计算复杂性,并迫使MPC以粗糙的空间 - 时间粒度运行,降低其决定的质量。本文通过学习MPC优化来解决这些计算挑战。然后,由此产生的机器学习模型用作优化代理并预测其最佳解决方案。这使得可以在较高的空间 - 时间保真处使用MPC,因为可以解决优化并脱机。实验结果表明,该拟议的方法提高了纽约市数据集具有挑战性的服务质量。
translated by 谷歌翻译
我们介绍了多模式的汽车和乘车共享问题(MMCRP),其中使用一台汽车来涵盖一组乘车请求,同时将发现的请求分配给其他运输方式(MOT)。汽车的路线由一次或多个旅行组成。每次旅行都必须具有特定但不明的驱动程序,以仓库开始,然后以(可能不同的)仓库结束。即使两个骑行没有相同的起源和/或目的地,也允许在用户之间共享骑行。用户始终可以根据各个首选项列表使用其他运输方式。该问题可以作为车辆调度问题提出。为了解决该问题,构建了一个辅助图,在该图中,每次旅行在仓库中的启动和结尾,并覆盖可能的乘车共享,以时空图中的形式建模为弧。我们提出了一种基于列生成的两层分解算法,其中主问题可确保最多只能涵盖每个请求,并且定价问题通过在时间 - 时间中解决一种最短路径问题来生成新的有希望的路线空间网络。报告了基于现实实例的计算实验。基准实例基于奥地利维也纳的人口,空间和经济数据。我们通过在合理时间内基于列生成的方法来解决大型实例,并进一步研究了各种精确和启发式定价方案。
translated by 谷歌翻译
本文开发了用于多交叉路口自适应交通信号控制(TSC)的分散增强学习(RL)方案,称为“CVlight”,其利用从连接的车辆(CVS)收集的数据。国家和奖励设计促进了代理商之间的协调,并考虑由CVS收集的旅行延误。提出了一种新颖的算法,非对称优势演员 - 评论家(EB-A2C),其中CV和非CV信息都用于培训批评网络,而仅使用CV信息来执行最佳信号定时。综合实验表明,CVlight的优越性在一个2×2合成道路网络下的最先进的算法,各种交通需求模式和穿透速率。然后,学习的政策被可视化以进一步展示ASYM-A2C的优点。采用火车前技术来提高CVlight的可扩展性,这显着缩短了培训时间,并在5×5路网络下表现出性能的优势。在美国宾夕法尼亚州宾夕法尼亚州州学院的2×2路网络上进行了一个案例研究,以进一步展示了在现实世界方案下所提出的算法的有效性。与其他基线模型相比,训练有素的CVlight代理可以仅基于CV数据有效地控制多个交叉点,达到最佳性能,特别是在低CV渗透率下。
translated by 谷歌翻译
The electrification of shared mobility has become popular across the globe. Many cities have their new shared e-mobility systems deployed, with continuously expanding coverage from central areas to the city edges. A key challenge in the operation of these systems is fleet rebalancing, i.e., how EVs should be repositioned to better satisfy future demand. This is particularly challenging in the context of expanding systems, because i) the range of the EVs is limited while charging time is typically long, which constrain the viable rebalancing operations; and ii) the EV stations in the system are dynamically changing, i.e., the legitimate targets for rebalancing operations can vary over time. We tackle these challenges by first investigating rich sets of data collected from a real-world shared e-mobility system for one year, analyzing the operation model, usage patterns and expansion dynamics of this new mobility mode. With the learned knowledge we design a high-fidelity simulator, which is able to abstract key operation details of EV sharing at fine granularity. Then we model the rebalancing task for shared e-mobility systems under continuous expansion as a Multi-Agent Reinforcement Learning (MARL) problem, which directly takes the range and charging properties of the EVs into account. We further propose a novel policy optimization approach with action cascading, which is able to cope with the expansion dynamics and solve the formulated MARL. We evaluate the proposed approach extensively, and experimental results show that our approach outperforms the state-of-the-art, offering significant performance gain in both satisfied demand and net revenue.
translated by 谷歌翻译
我们将解决多车程路由问题解释为马尔可夫的团队游戏,其成本部分可观察到。为了为一组给定的客户提供服务,游戏代理(车辆)的共同目标是确定最佳的总成本的团队最佳代理路线。因此,每个代理商仅观察自己的成本。我们的多机构增强学习方法,即所谓的多机神经重写者,建立在单格神经重写者的基础上,以通过迭代重写解决方案解决该问题。并行代理操作执行和部分可观察性需要游戏的新重写规则。我们建议在系统中引入一个所谓的池,该池是未访问的节点的收集点。它使代理商能够同时采取行动并以无冲突的方式交换节点。我们仅在学习过程中仅分享对代理的成本的有限披露。在推断期间,每个代理人都完全基于其自身的成本来表现出来。小问题大小的首先经验结果表明,我们达到的性能接近所采用的Or-Tools基准,该基准在完美的成本信息设置中运行。
translated by 谷歌翻译
强化学习(RL)已用于一系列模拟的现实任务,例如传感器协调,交通光控制和按需移动服务。然而,现实世界部署很少见,因为RL与现实世界环境的动态性质斗争,需要时间学习任务并适应环境的变化。转移学习(TL)可以帮助降低这些适应时间。特别地,在多蛋白RL系统中应用TL的显着潜力,其中多个代理可以彼此共享知识,以及加入系统的新代理。为了获得最大的代理商转移,转移角色(即,确定哪些代理作为源代理并且作为目标),以及在每个特定情况下应动态地选择相关的转移内容参数(例如,转移大小)。作为完全动态转移的第一步,在本文中,我们研究了TL转移参数与固定源和目标角色的影响。具体而言,我们将每个代理环境与代理人的认知信心标记,并且我们使用不同阈值级别和样本大小来过滤共享示例。我们在两种情况下调查了这些参数的影响,标准捕食者 - 猎物RL基准以及带有200个车辆代理的乘车共享系统和10,000名乘车请求的模拟。
translated by 谷歌翻译
共享的电子移动服务已被广泛测试和在全球城市中驾驶,并且已经编织成现代城市规划的结构。本文研究了这些系统中的实用而重要的问题:如何在空间和时间跨空间和时间部署和管理其基础架构,以便在可持续的盈利能力的同时对用户无处不在。然而,在现实世界的系统中,评估不同部署策略的性能,然后找到最佳计划是非常昂贵的,因为它通常是不可行的,可以对试用和错误进行许多迭代。我们通过设计高保真仿真环境来解决这一目标,该环境摘要在细粒度下共享电子移动系统的关键操作细节,并使用从现实世界中收集的数据进行校准。这使我们能够尝试任意部署计划来学习在实际在实际系统中实施任何内容之前的特定上下文。特别是,我们提出了一种新的多代理神经检索方法,其中我们设计了一个分层控制器以产生暂定部署计划。然后使用多模拟范例,即并行评估的生成的部署计划进行测试,其中结果用于用深增强学习训练控制器。通过这种闭环,控制器可以被引导以在将来的迭代中产生更好的部署计划的概率。在我们的仿真环境中,已经广泛评估了所提出的方法,实验结果表明它优于基于基于基于基于的基于基于基于的启发式的服务覆盖范围和净收入的方法。
translated by 谷歌翻译
未来的互联网涉及几种新兴技术,例如5G和5G网络,车辆网络,无人机(UAV)网络和物联网(IOT)。此外,未来的互联网变得异质并分散了许多相关网络实体。每个实体可能需要做出本地决定,以在动态和不确定的网络环境下改善网络性能。最近使用标准学习算法,例如单药强化学习(RL)或深入强化学习(DRL),以使每个网络实体作为代理人通过与未知环境进行互动来自适应地学习最佳决策策略。但是,这种算法未能对网络实体之间的合作或竞争进行建模,而只是将其他实体视为可能导致非平稳性问题的环境的一部分。多机构增强学习(MARL)允许每个网络实体不仅观察环境,还可以观察其他实体的政策来学习其最佳政策。结果,MAL可以显着提高网络实体的学习效率,并且最近已用于解决新兴网络中的各种问题。在本文中,我们因此回顾了MAL在新兴网络中的应用。特别是,我们提供了MARL的教程,以及对MARL在下一代互联网中的应用进行全面调查。特别是,我们首先介绍单代机Agent RL和MARL。然后,我们回顾了MAL在未来互联网中解决新兴问题的许多应用程序。这些问题包括网络访问,传输电源控制,计算卸载,内容缓存,数据包路由,无人机网络的轨迹设计以及网络安全问题。
translated by 谷歌翻译