交通流量预测对于智能城市管理和公共安全至关重要和挑战。最近的研究表明,无卷积的变压器方法的潜力提取了复杂的影响因素之间的动态依赖性。但是,两个问题可防止该方法有效地应用于交通流预测。首先,它忽略了交通流视频的时空结构。其次,由于长序列,由于二次时次点 - 产品计算,很难关注重要的关注。为了解决这两个问题,我们首先将依赖性分解,然后设计一个名为prostformer的渐进空间自我关注机制。它具有两个独特的特征:(1)对应于分解,自我关注机制逐渐侧重于从本地到全球区域的空间依赖,从内部到外部片段的时间依赖(即,亲近,期间和趋势)。最后在外部依赖性,如天气,温度和一周的一周; (2)通过将时空结构掺入自我关注机构中,Prostformer中的每个块通过将具有时空位置的区域聚集来显着降低计算来突出唯一的依赖性。我们在两个交通数据集上评估Prostformer,每个数据集包括三个具有大,中等和小尺度的单独数据集。尽管与交通流量预测的卷积架构相比,虽然与卷积架构相比,Prostformer在大规模数据集上比RMSE更好地执行或相同。当预先训练在大规模数据集并转移到介质和小规模数据集时,Prostformer达到了显着的增强并表现得最好。
translated by 谷歌翻译
自行车分享系统(BSSS)在全球越来越受欢迎,并引起了广泛的研究兴趣。本文研究了BSSS中的需求预测问题。空间和时间特征对于BSSS的需求预测至关重要,但提取了时尚动态的需求是挑战性的。另一个挑战是捕捉时空动力学和外部因素之间的关系,例如天气,一周和一天时间。为了解决这些挑战,我们提出了一个名为MSTF-Net的多个时空融合网络。 MSTF-Net由多个时空块组成:3D卷积网络(3D-CNN)块,Eidetic 3D卷积长短短期存储网络(E3D-LSTM)块,以及完全连接的(FC)块。具体地,3D-CNN嵌段突出显示在每个片段中提取短期时空依赖(即,亲近,期间和趋势); E3D-LSTM块进一步提取对所有碎片的长期时空依赖; FC块提取外部因素的非线性相关性。最后,融合E3D-LSTM和FC块的潜在表示以获得最终预测。对于两个现实世界数据集,显示MSTF-Net优于七种最先进的模型。
translated by 谷歌翻译
We present a convolution-free approach to video classification built exclusively on self-attention over space and time. Our method, named "TimeSformer," adapts the standard Transformer architecture to video by enabling spatiotemporal feature learning directly from a sequence of framelevel patches. Our experimental study compares different self-attention schemes and suggests that "divided attention," where temporal attention and spatial attention are separately applied within each block, leads to the best video classification accuracy among the design choices considered. Despite the radically new design, TimeSformer achieves state-of-the-art results on several action recognition benchmarks, including the best reported accuracy on Kinetics-400 and Kinetics-600. Finally, compared to 3D convolutional networks, our model is faster to train, it can achieve dramatically higher test efficiency (at a small drop in accuracy), and it can also be applied to much longer video clips (over one minute long). Code and models are available at: https://github.com/ facebookresearch/TimeSformer.
translated by 谷歌翻译
OD区域对之间的原点污染(OD)矩阵记录定向流数据。矩阵中复杂的时空依赖性使OD矩阵预测(ODMF)问题不仅可以棘手,而且是非平凡的。但是,大多数相关方法都是为在特定的应用程序方案中预测非常短的序列时间序列而设计的,在特定的应用程序场景中,该方法无法满足方案和预测实用应用长度的差异要求。为了解决这些问题,我们提出了一个名为Odformer的类似变压器的模型,具有两个显着特征:(i)新型的OD注意机制,该机制捕获了相同起源(目的地)之间的特殊空间依赖性,可大大提高与捕获OD区域之间空间依赖关系的2D-GCN结合后,预测交叉应用方案的模型。 (ii)一个时期的自我注意力,可以有效地预测长序列OD矩阵序列,同时适应不同情况下的周期性差异。在三个应用程序背景(即运输流量,IP骨干网络流量,人群流)中进行的慷慨实验表明,我们的方法的表现优于最新方法。
translated by 谷歌翻译
Many real-world applications require the prediction of long sequence time-series, such as electricity consumption planning. Long sequence time-series forecasting (LSTF) demands a high prediction capacity of the model, which is the ability to capture precise long-range dependency coupling between output and input efficiently. Recent studies have shown the potential of Transformer to increase the prediction capacity. However, there are several severe issues with Transformer that prevent it from being directly applicable to LSTF, including quadratic time complexity, high memory usage, and inherent limitation of the encoder-decoder architecture. To address these issues, we design an efficient transformer-based model for LSTF, named Informer, with three distinctive characteristics: (i) a ProbSparse self-attention mechanism, which achieves O(L log L) in time complexity and memory usage, and has comparable performance on sequences' dependency alignment. (ii) the self-attention distilling highlights dominating attention by halving cascading layer input, and efficiently handles extreme long input sequences. (iii) the generative style decoder, while conceptually simple, predicts the long time-series sequences at one forward operation rather than a step-by-step way, which drastically improves the inference speed of long-sequence predictions. Extensive experiments on four large-scale datasets demonstrate that Informer significantly outperforms existing methods and provides a new solution to the LSTF problem.
translated by 谷歌翻译
由于视频帧之间的庞大本地冗余和复杂的全局依赖性,这是一种具有挑战性的任务。该研究的最近进步主要由3D卷积神经网络和视觉变压器推动。虽然3D卷积可以有效地聚合本地上下文来抑制来自小3D邻域的本地冗余,但由于接收领域有限,它缺乏捕获全局依赖性的能力。或者,视觉变压器可以通过自我关注机制有效地捕获远程依赖性,同时具有在每层中所有令牌之间的盲目相似性比较来降低本地冗余的限制。基于这些观察,我们提出了一种新颖的统一变压器(统一机),其以简洁的变压器格式无缝地整合3D卷积和时空自我关注的优点,并在计算和准确性之间实现了优选的平衡。与传统的变形金刚不同,我们的关系聚合器可以通过在浅层和深层中学习本地和全球令牌亲和力来解决时空冗余和依赖性。我们对流行的视频基准进行了广泛的实验,例如动力学-400,动力学-600,以及某种东西 - 某种东西 - 某种东西 - 某种东西 - 某种东西。只有ImageNet-1K预磨料,我们的统一器在动力学-400 /动力学-600上实现了82.9%/ 84.8%的前1个精度,同时需要比其他最先进的方法更少的gflops。对于某些东西而言,我们的制服分别实现了新的最先进的表演,分别实现了60.9%和71.2%的前1个精度。代码可在https://github.com/sense-x/uniformer获得。
translated by 谷歌翻译
我们研究了具有动态,可能的周期性的流量的预测问题和区域之间的关节空间依赖关系。鉴于从时隙0到T-1的城市中区的聚合流入和流出流量,我们预测了任何区域的时间t的流量。该地区的现有技术通常以脱钩的方式考虑空间和时间依赖性,或者在具有大量超参数曲调的训练中是相当的计算密集。我们提出了ST-TIS,一种新颖,轻巧和准确的空间变压器,具有信息融合和区域采样进行交通预测。 ST-TIS将规范变压器与信息融合和区域采样延伸。信息融合模块捕获区域之间的复杂空间依赖关系。该区域采样模块是提高效率和预测精度,将计算复杂性切割为依赖性学习从$ O(n ^ 2)$到$ O(n \ sqrt {n})$,其中n是区域的数量。比最先进的模型的参数较少,我们模型的离线培训在调整和计算方面明显更快(培训时间和网络参数减少高达90±90 \%)。尽管存在这种培训效率,但大量实验表明,ST-TIS在网上预测中大幅度更准确,而不是最先进的方法(平均改善高达11 \%$ 11 \%$ ON MAPE上的$ 14 \%$ 14 \%$ 14 \%$ ON MAPE) 。
translated by 谷歌翻译
最近,由于其对交通清算的重大影响,交通事故风险预测的问题一直引起了智能运输系统社区的关注。通过使用数据驱动的方法来对空间和时间事件的影响进行建模,因此在文献中通常可以解决此问题,因为它们被证明对于交通事故风险预测问题至关重要。为了实现这一目标,大多数方法构建了不同的体系结构以捕获时空相关性功能,从而使它们对大型交通事故数据集效率低下。因此,在这项工作中,我们提出了一个新颖的统一框架,即是上下文视觉变压器,可以通过端到端的方法进行培训,该方法可以有效地建议问题的空间和时间方面,同时提供准确的交通事故。风险预测。我们评估并比较了我们提出的方法的性能与来自两个不同地理位置的两个大规模交通事故数据集的文献的基线方法。结果表明,与文献中先前的最新作品(SOTA)相比,RMSE得分的重大改善大约为2 \%。此外,我们提出的方法在两个数据集上优于SOTA技术,而仅需要少23倍的计算要求。
translated by 谷歌翻译
旨在预测人群进入或离开某些地区的人群的预测是智能城市的一项基本任务。人群流数据的关键属性之一是周期性:一种按常规时间间隔发生的模式,例如每周模式。为了捕获这种周期性,现有研究要么将周期性的隐藏状态融合到网络中,以学习或将额外的定期策略应用于网络体系结构。在本文中,我们设计了一个新颖的定期残差学习网络(PRNET),以更好地建模人群流数据中的周期性。与现有方法不同,PRNET通过建模输入(上一个时期)和输出(未来时间段)之间的变化来将人群流动预测作为周期性的残差学习问题。与直接预测高度动态的人群流动相比,学习更多的固定偏差要容易得多,从而有助于模型训练。此外,学到的变化使网络能够在每个时间间隔内产生未来条件及其相应每周观察的残差,因此有助于更准确的多步骤预测。广泛的实验表明,PRNET可以轻松地集成到现有模型中,以增强其预测性能。
translated by 谷歌翻译
图表上的交通流量预测在许多字段(例如运输系统和计算机网络)中具有现实世界应用。由于复杂的时空相关性和非线性交通模式,交通预测可能是高度挑战的。现有的作品主要是通过分别考虑空间相关性和时间相关性来模拟此类时空依赖性的模型,并且无法对直接的时空相关性进行建模。受到图形域中变形金刚最近成功的启发,在本文中,我们建议使用局部多头自我攻击直接建模时空图上的跨空间相关性。为了降低时间的复杂性,我们将注意力接收场设置为空间相邻的节点,还引入了自适应图以捕获隐藏的空间范围依赖性。基于这些注意机制,我们提出了一种新型的自适应图形时空变压器网络(ASTTN),该网络堆叠了多个时空注意层以在输入图上应用自我注意力,然后是线性层进行预测。公共交通网络数据集,Metr-La PEMS-Bay,PEMSD4和PEMSD7的实验结果证明了我们模型的出色性能。
translated by 谷歌翻译
时尚预测学习是给定一系列历史框架的未来框架。传统算法主要基于经常性的神经网络(RNN)。然而,由于经常性结构的序列性,RNN遭受了重大计算负担,例如由于经常性结构的序列性而达到时间和长的背部传播过程。最近,还以编码器 - 解码器或普通编码器的形式研究了基于变压器的方法,但是编码器 - 解码器形式需要过于深的网络,并且普通编码器缺乏短期依赖性。为了解决这些问题,我们提出了一种名为3D时间卷积变压器(TCTN)的算法,其中采用具有时间卷积层的基于变压器的编码器来捕获短期和长期依赖性。由于变压器的并行机理,我们所提出的算法与基于RNN的方法相比,易于实施和培训得多。为了验证我们的算法,我们对移动和kth数据集进行实验,并表明TCTN在性能和训练速度下表现出最先进的(SOTA)方法。
translated by 谷歌翻译
准确预测短期OD矩阵(即,从各种来源到目的地的乘客流量的分布)是地铁系统中的一个重要任务。由于许多影响因素的不断变化的性质和实时延迟数据收集问题,这是强大的挑战性。最近,已经提出了一些基于学习的基于学习的模型,以便在乘车和高速公路中进行OD矩阵预测。然而,由于其不同的先验知识和上下文设置,这些模型不能充分捕获地铁网络中的站点之间的复杂时空相关性。在本文中,我们提出了一个混合框架多视图Trgru来解决OD Metro Matrix预测。特别是,它使用三个模块来模拟三个流动变化模式:最近的趋势,日常趋势,每周趋势。在每个模块中,基于每个站的嵌入的多视图表示被构造并馈送到基于变压器的门控复发结构,以通过全球自我注意机制捕获不同站的OD流的动态空间依赖性。在三种大型现实世界地铁数据集上进行了广泛的实验,证明了我们的多视图Trgru在其他竞争对手的优越性。
translated by 谷歌翻译
流量预测是智能交通系统中时空学习任务的规范示例。现有方法在图形卷积神经操作员中使用预定的矩阵捕获空间依赖性。但是,显式的图形结构损失了节点之间关系的一些隐藏表示形式。此外,传统的图形卷积神经操作员无法在图上汇总远程节点。为了克服这些限制,我们提出了一个新型的网络,空间 - 周期性自适应图卷积,并通过注意力网络(Staan)进行交通预测。首先,我们采用自适应依赖性矩阵,而不是在GCN处理过程中使用预定义的矩阵来推断节点之间的相互依存关系。其次,我们集成了基于图形注意力网络的PW注意,该图形是为全局依赖性设计的,而GCN作为空间块。更重要的是,在我们的时间块中采用了堆叠的散布的1D卷积,具有长期预测的效率,用于捕获不同的时间序列。我们在两个现实世界数据集上评估了我们的Staan,并且实验验证了我们的模型优于最先进的基线。
translated by 谷歌翻译
揭开多个机场之间的延迟传播机制的神秘面纱对于精确且可解释的延迟预测至关重要,这对于所有航空业利益相关者来说至关重要。主要挑战在于有效利用与延迟传播有关的时空依赖性和外源因素。但是,以前的作品仅考虑有限的时空模式,其因素很少。为了促进延迟预测的更全面的传播建模,我们提出了时空传播网络(STPN),这是一种时空可分开的图形卷积网络,在时空依赖性捕获中是新颖的。从空间关系建模的方面,我们提出了一个多画卷积模型,考虑地理位置和航空公司计划。从时间依赖性捕获的方面,我们提出了一种多头的自我发起的机制,可以端对端学习,并明确地推定延迟时间序列的多种时间依赖性。我们表明,关节空间和时间学习模型产生了Kronecker产品的总和,这是由于时空依赖性归因于几个空间和时间邻接矩阵的总和。通过这种方式,STPN允许对空间和时间因素进行串扰,以建模延迟传播。此外,将挤压和激发模块添加到STPN的每一层,以增强有意义的时空特征。为此,我们在大规模机场网络中将STPN应用于多步进和出发延迟预测。为了验证我们的模型的有效性,我们尝试了两个现实世界中的延迟数据集,包括美国和中国航班延迟;我们表明,STPN优于最先进的方法。此外,STPN产生的反事实表明,它学习了可解释的延迟传播模式。
translated by 谷歌翻译
多元时间序列(MTS)预测在广泛的应用中起着至关重要的作用。最近,时空图神经网络(STGNN)已成为越来越流行的MTS预测方法。 STGNN通过图神经网络和顺序模型共同对MTS的空间和时间模式进行建模,从而显着提高了预测准确性。但是受模型复杂性的限制,大多数STGNN仅考虑短期历史MTS数据,例如过去一个小时的数据。但是,需要根据长期的历史MTS数据来分析时间序列的模式及其之间的依赖关系(即时间和空间模式)。为了解决这个问题,我们提出了一个新颖的框架,其中STGNN通过可扩展的时间序列预训练模型(步骤)增强。具体而言,我们设计了一个预训练模型,以从非常长期的历史时间序列(例如,过去两周)中有效地学习时间模式并生成细分级表示。这些表示为短期时间序列输入到STGNN提供了上下文信息,并促进了时间序列之间的建模依赖关系。三个公共现实世界数据集的实验表明,我们的框架能够显着增强下游STGNN,并且我们的训练前模型可恰当地捕获时间模式。
translated by 谷歌翻译
我们都取决于流动性,车辆运输会影响我们大多数人的日常生活。因此,预测道路网络中流量状态的能力是一项重要的功能和具有挑战性的任务。流量数据通常是从部署在道路网络中的传感器获得的。关于时空图神经网络的最新建议通过将流量数据建模为扩散过程,在交通数据中建模复杂的时空相关性方面取得了巨大进展。但是,直观地,流量数据包含两种不同类型的隐藏时间序列信号,即扩散信号和固有信号。不幸的是,几乎所有以前的作品都将交通信号完全视为扩散的结果,同时忽略了固有的信号,这会对模型性能产生负面影响。为了提高建模性能,我们提出了一种新型的脱钩时空框架(DSTF),该框架以数据驱动的方式将扩散和固有的交通信息分开,其中包含独特的估计门和残差分解机制。分离的信号随后可以通过扩散和固有模块分别处理。此外,我们提出了DSTF的实例化,分离的动态时空图神经网络(D2STGNN),可捕获时空相关性,还具有动态图学习模块,该模块针对学习流量网络动态特征的学习。使用四个现实世界流量数据集进行的广泛实验表明,该框架能够推进最先进的框架。
translated by 谷歌翻译
交通流量的技术预测在智能运输系统中起着重要作用。基于图形神经网络和注意机制,大多数先前的作品都利用变压器结构来发现时空依赖性和动态关系。但是,他们尚未彻底考虑时空序列之间的相关信息。在本文中,基于最大信息系数,我们提出了两种详尽的时空表示,空间相关信息(SCORR)和时间相关信息(TCORR)。使用SCORR,我们提出了一个基于相关信息的时空网络(CORRSTN),该网络包括一个动态图神经网络组件,可有效地将相关信息整合到空间结构中,以及一个多头注意力组件,以准确地对动态时间依赖性进行建模。利用TCORR,我们探索了不同周期数据之间的相关模式,以识别最相关的数据,然后设计有效的数据选择方案以进一步增强模型性能。公路交通流量(PEMS07和PEMS08)和地铁人群流(HZME流入和流出)数据集的实验结果表明,Corrstn在预测性能方面表现出了最先进的方法。特别是,在HZME(流出)数据集上,与ASTGNN模型相比,我们的模型在MAE,RMSE和MAPE的指标中分别提高了12.7%,14.4%和27.4%。
translated by 谷歌翻译
延长预测时间是对真实应用的危急需求,例如极端天气预警和长期能源消耗规划。本文研究了时间序列的长期预测问题。基于现有的变压器的模型采用各种自我关注机制来发现远程依赖性。然而,长期未来的复杂时间模式禁止模型找到可靠的依赖项。此外,变压器必须采用长期级效率的稀疏版本的点明显自我关注,从而导致信息利用瓶颈。超越变形金刚,我们将自动运气设计为具有自动相关机制的新型分解架构。我们突破了序列分解的预处理公约,并将其翻新为深层模型的基本内部。这种设计为复杂的时间序列具有渐进式分解容量的自动成形。此外,由随机过程理论的启发,我们基于串联周期性设计自相关机制,这在子系列级别进行了依赖关系发现和表示聚合。自动相关性效率和准确性的自我关注。在长期预测中,自动成形器产生最先进的准确性,六个基准测试中的相对改善38%,涵盖了五种实际应用:能源,交通,经济,天气和疾病。此存储库中可用的代码:\ url {https://github.com/thuml/autoformer}。
translated by 谷歌翻译
交通预测在智能运输系统中起着不可或缺的作用,使每日旅行更方便和更安全。然而,时空相关的动态演化使得准确的流量预测非常困难。现有工作主要采用图形神经NetWroks(GNNS)和深度时间序列模型(例如,复发性神经网络),以捕获动态交通系统中的复杂时空模式。对于空间模式,GNN难以在道路网络中提取全局空间信息,即远程传感器信息。虽然我们可以使用自我关注来提取全球空间信息,如前面的工作中,它也伴随着巨大的资源消耗。对于时间模式,交通数据不仅易于识别每日和每周趋势,而且难以识别由事故引起的短期噪音(例如,汽车事故和雷暴)。现有交通模型难以在时间序列中区分复杂的时间模式,因此难以实现准确的时间依赖。为了解决上述问题,我们提出了一种新颖的噪声感知高效时空变压器架构,用于准确的交通预测,名为StFormer。 Stformer由两个组件组成,这是噪声感知的时间自我关注(NATSA)和基于图形的稀疏空间自我关注(GBS3A)。 NATSA将高频分量和低频分量与时间序列分开以消除噪声并分别通过学习滤波器和时间自我关注捕获稳定的时间依赖性。 GBS3A以基于图形的稀疏查询替换vanilla自我关注的完整查询,以减少时间和内存使用情况。四个现实世界交通数据集的实验表明,履带器优于较低的计算成本的最先进的基线。
translated by 谷歌翻译
上下文特征是构建时空人群流预测(STCFP)模型的重要数据源。但是,应用上下文的困难在于上下文特征(例如,天气,假日和利益点)和上下文建模技术在不同情况下的不明通用性。在本文中,我们开发了一个实验平台,该平台由大规模时空人群流数据,上下文数据和最新时空预测模型组成三个城市人群流动预测方案(自行车流,地铁乘客流量和电动汽车充电需求)中的技术。特别是,我们基于广泛研究的广泛研究来开发上下文建模技术的一般分类学。通过三个现实世界数据集,包括数百万记录和丰富的上下文数据,我们已经培训并测试了数百种不同的模型。我们的结果揭示了一些重要的观察:(1)使用更多的上下文特征可能并不总是通过现有上下文建模技术进行更好的预测;特别是,与其他上下文功能组合相比,假日和时间位置的上下文特征组合可以提供更多可概括的有益信息。 (2)在上下文建模技术中,使用门控单元将原始上下文特征纳入最先进的预测模型具有良好的概括性。此外,我们还为想要构建STCFP应用程序的从业者纳入上下文因素提供了一些建议。根据我们的发现,我们呼吁将来的研究工作致力于开发新的上下文处理和建模解决方案,以充分利用STCFP上下文功能的潜力。
translated by 谷歌翻译