概率时间序列预测在许多应用领域至关重要,例如零售,电子商务,金融或生物学。随着大量数据的增加,已经提出了许多神经架构为此问题。特别是,基于变压器的方法实现了现实世界基准的最先进的性能。然而,这些方法需要了解大量参数,这对培训此类模型的计算资源施加了高的内存要求。为了解决这个问题,我们介绍了一种新颖的双向时间卷积网络(Bitcn),该网络(Bitcn)需要比公共变换器的方法更少的参数较少的阶数。我们的模型结合了两个时间卷积网络(TCN):第一个网络编码了时间序列的未来协变量,而第二网络编码过往观察和协变量。我们通过这两个网络联合估计输出分布的参数。四个现实世界数据集的实验表明,我们的方法与四个最先进的概率预测方法进行了表演,包括基于变压器的方法和Wavenet,在两点指标(Smape,NRMSE)以及A上大多数情况下的范围指标(定量损失百分位数)集。其次,我们证明我们的方法比基于变压器的方法所需的参数明显更少,这意味着模型可以培训更快,内存要求显着降低,因此降低了部署这些模型的基础架构成本。
translated by 谷歌翻译
基于预测方法的深度学习已成为时间序列预测或预测的许多应用中的首选方法,通常通常优于其他方法。因此,在过去的几年中,这些方法现在在大规模的工业预测应用中无处不在,并且一直在预测竞赛(例如M4和M5)中排名最佳。这种实践上的成功进一步提高了学术兴趣,以理解和改善深厚的预测方法。在本文中,我们提供了该领域的介绍和概述:我们为深入预测的重要构建块提出了一定深度的深入预测;随后,我们使用这些构建块,调查了最近的深度预测文献的广度。
translated by 谷歌翻译
Time series forecasting is an important problem across many domains, including predictions of solar plant energy output, electricity consumption, and traffic jam situation. In this paper, we propose to tackle such forecasting problem with Transformer [1]. Although impressed by its performance in our preliminary study, we found its two major weaknesses: (1) locality-agnostics: the point-wise dotproduct self-attention in canonical Transformer architecture is insensitive to local context, which can make the model prone to anomalies in time series; (2) memory bottleneck: space complexity of canonical Transformer grows quadratically with sequence length L, making directly modeling long time series infeasible. In order to solve these two issues, we first propose convolutional self-attention by producing queries and keys with causal convolution so that local context can be better incorporated into attention mechanism. Then, we propose LogSparse Transformer with only O(L(log L) 2 ) memory cost, improving forecasting accuracy for time series with fine granularity and strong long-term dependencies under constrained memory budget. Our experiments on both synthetic data and realworld datasets show that it compares favorably to the state-of-the-art.
translated by 谷歌翻译
时间变化数量的估计是医疗保健和金融等领域决策的基本组成部分。但是,此类估计值的实际实用性受到它们量化预测不确定性的准确程度的限制。在这项工作中,我们解决了估计高维多元时间序列的联合预测分布的问题。我们提出了一种基于变压器体系结构的多功能方法,该方法使用基于注意力的解码器估算关节分布,该解码器可被学会模仿非参数Copulas的性质。最终的模型具有多种理想的属性:它可以扩展到数百个时间序列,支持预测和插值,可以处理不规则和不均匀的采样数据,并且可以在训练过程中无缝地适应丢失的数据。我们从经验上证明了这些属性,并表明我们的模型在多个现实世界数据集上产生了最新的预测。
translated by 谷歌翻译
Probabilistic forecasting, i.e. estimating the probability distribution of a time series' future given its past, is a key enabler for optimizing business processes. In retail businesses, for example, forecasting demand is crucial for having the right inventory available at the right time at the right place. In this paper we propose DeepAR, a methodology for producing accurate probabilistic forecasts, based on training an auto-regressive recurrent network model on a large number of related time series. We demonstrate how by applying deep learning techniques to forecasting, one can overcome many of the challenges faced by widely-used classical approaches to the problem. We show through extensive empirical evaluation on several real-world forecasting data sets accuracy improvements of around 15% compared to state-of-the-art methods.
translated by 谷歌翻译
在本文中,我们呈现SSDNet,这是一个新的时间序列预测的深层学习方法。SSDNet将变压器架构与状态空间模型相结合,提供概率和可解释的预测,包括趋势和季节性成分以及前一步对预测很重要。变压器架构用于学习时间模式并直接有效地估计状态空间模型的参数,而无需对卡尔曼滤波器的需要。我们全面评估了SSDNET在五个数据集上的性能,显示SSDNet是一种有效的方法,可在准确性和速度,优于最先进的深度学习和统计方法方面是一种有效的方法,能够提供有意义的趋势和季节性组件。
translated by 谷歌翻译
In this paper, we propose a new short-term load forecasting (STLF) model based on contextually enhanced hybrid and hierarchical architecture combining exponential smoothing (ES) and a recurrent neural network (RNN). The model is composed of two simultaneously trained tracks: the context track and the main track. The context track introduces additional information to the main track. It is extracted from representative series and dynamically modulated to adjust to the individual series forecasted by the main track. The RNN architecture consists of multiple recurrent layers stacked with hierarchical dilations and equipped with recently proposed attentive dilated recurrent cells. These cells enable the model to capture short-term, long-term and seasonal dependencies across time series as well as to weight dynamically the input information. The model produces both point forecasts and predictive intervals. The experimental part of the work performed on 35 forecasting problems shows that the proposed model outperforms in terms of accuracy its predecessor as well as standard statistical models and state-of-the-art machine learning models.
translated by 谷歌翻译
对极端事件的风险评估需要准确估算超出历史观察范围的高分位数。当风险取决于观察到的预测因子的值时,回归技术用于在预测器空间中插值。我们提出的EQRN模型将来自神经网络和极值理论的工具结合到能够在存在复杂预测依赖性的情况下外推的方法中。神经网络自然可以在数据中融合其他结构。我们开发了EQRN的经常性版本,该版本能够在时间序列中捕获复杂的顺序依赖性。我们将这种方法应用于瑞士AARE集水区中洪水风险的预测。它利用从时空和时间上的多个协变量中利用信息,以提供对回报水平和超出概率的一日预测。该输出从传统的极值分析中补充了静态返回水平,并且预测能够适应不断变化的气候中经历的分配变化。我们的模型可以帮助当局更有效地管理洪水,并通过预警系统最大程度地减少其灾难性影响。
translated by 谷歌翻译
电力行业正在大力实施智能网格技术,以提高可靠性,可用性,安全性和效率。该实施需要技术进步,标准和法规的发展以及测试和计划。智能电网载荷预测和管理对于降低需求波动和改善连接发电机,分销商和零售商的市场机制至关重要。在政策实施或外部干预措施中,有必要分析其对电力需求的影响的不确定性,以使系统对需求的波动更加准确。本文分析了外部干预的不确定性对电力需求的影响。它实现了一种结合概率和全局预测模型的框架,使用深度学习方法来估计干预措施的因果影响分布。通过预测受影响实例的反事实分布结果,然后将其与实际结果进行对比来评估因果效应。我们将COVID-19锁定对能源使用的影响视为评估这种干预对电力需求分布的不均匀影响的案例研究。我们可以证明,在澳大利亚和某些欧洲国家的最初封锁期间,槽通常比峰值更大的下降,而平均值几乎不受影响。
translated by 谷歌翻译
时间序列预测是许多域中的重要问题,在多个现实世界应用中发挥着至关重要的作用。在本文中,我们提出了一种预测架构,将深度自回归模型与光谱注意力(SA)模块结合起来,其在模型的嵌入式空间中合并全局和局域域信息。通过在光谱域中表征,将时间序列嵌入为随机过程的发生,我们的方法可以识别全球趋势和季节性模式。两个光谱注意力模型,全局和本地序列,将这些信息集成在预测中,并执行频谱滤波以删除时间序列的噪声。所提出的架构具有许多有用的属性:可以有效地结合到众所周知的预测架构中,需要较低的参数,并产生提高预测精度的可解释结果。我们在几个知名的预测数据集中测试频谱注意力归档型号(Saam),始终如一地证明我们的模型对最先进的方法有利地进行了比较。
translated by 谷歌翻译
最近,对于长期时间序列预测(LTSF)任务,基于变压器的解决方案激增。尽管过去几年的表现正在增长,但我们质疑这项研究中这一研究的有效性。具体而言,可以说,变形金刚是最成功的解决方案,是在长序列中提取元素之间的语义相关性。但是,在时间序列建模中,我们要在一组连续点的有序集中提取时间关系。在采用位置编码和使用令牌将子系列嵌入变压器中的同时,有助于保留某些订购信息,但\ emph {置换不变}的自我注意力专注机制的性质不可避免地会导致时间信息损失。为了验证我们的主张,我们介绍了一组名为LTSF线性的令人尴尬的简单单层线性模型,以进行比较。在九个现实生活数据集上的实验结果表明,LTSF线性在所有情况下都超过现有的基于变压器的LTSF模型,并且通常要大幅度较大。此外,我们进行了全面的经验研究,以探索LTSF模型各种设计元素对其时间关系提取能力的影响。我们希望这一令人惊讶的发现为LTSF任务打开了新的研究方向。我们还主张重新审视基于变压器解决方案对其他时间序列分析任务(例如,异常检测)的有效性。代码可在:\ url {https://github.com/cure-lab/ltsf-linear}中获得。
translated by 谷歌翻译
各种深度学习模型,尤其是一些最新的基于变压器的方法,已大大改善了长期时间序列预测的最新性能。但是,这些基于变压器的模型遭受了严重的恶化性能,并延长了输入长度除了使用扩展的历史信息。此外,这些方法倾向于在长期预测中处理复杂的示例,并增加模型复杂性,这通常会导致计算的显着增加和性能较低的鲁棒性(例如,过度拟合)。我们提出了一种新型的神经网络架构,称为Treedrnet,以进行更有效的长期预测。受稳健回归的启发,我们引入了双重残差链接结构,以使预测更加稳健。对Kolmogorov-Arnold表示定理进行了明确的介绍,并明确介绍了特征选择,模型集合和树结构,以进一步利用扩展输入序列,从而提高了可靠的输入序列和Treedrnet的代表力。与以前的顺序预测工作的深层模型不同,Treedrnet完全建立在多层感知下,因此具有很高的计算效率。我们广泛的实证研究表明,Treedrnet比最先进的方法更有效,将预测错误降低了20%至40%。特别是,Treedrnet的效率比基于变压器的方法高10倍。该代码将很快发布。
translated by 谷歌翻译
多元时间序列预测已在各种领域(包括金融,交通,能源和医疗保健)中广泛范围的应用程序。为了捕获复杂的时间模式,大量研究设计了基于RNN,GNN和Transformers的许多变体的复杂神经网络体系结构。但是,复杂的模型在计算上通常是昂贵的,因此当应用于大型现实世界数据集时,在训练和推理效率方面面临严重的挑战。在本文中,我们介绍了Lightts,这是一种基于简单的基于MLP的结构的轻度深度学习体系结构。 LightT的关键思想是在两种微妙的下采样策略之上应用基于MLP的结构,包括间隔抽样和连续采样,灵感来自至关重要的事实,即下采样时间序列通常保留其大多数信息。我们对八个广泛使用的基准数据集进行了广泛的实验。与现有的最新方法相比,Lightts在其中五个方面表现出更好的性能,其余的性能可比性。此外,Lightts高效。与最大的基准数据集上的先前SOTA方法相比,它使用的触发器少于5%。此外,Lightts的预测准确性与以前的SOTA方法相比,在长序列预测任务中,预测准确性的差异要小得多。
translated by 谷歌翻译
已经发现,已经发现深度学习架构,特别是深度动量网络(DMNS)[1904.04912]是一种有效的势头和平均逆转交易的方法。然而,近年来一些关键挑战涉及学习长期依赖,在考虑返回交易成本净净额并适应新的市场制度时,绩效的退化,特别是在SARS-COV-2危机期间。注意机制或基于变换器的架构是对这些挑战的解决方案,因为它们允许网络专注于过去和长期模式的重要时间步骤。我们介绍了势头变压器,一种基于关注的架构,胜过基准,并且本质上是可解释的,为我们提供更大的深入学习交易策略。我们的模型是基于LSTM的DMN的扩展,它通过在风险调整的性能度量上优化网络,直接输出位置尺寸,例如锐利比率。我们发现注意力LSTM混合解码器仅时间融合变压器(TFT)样式架构是最佳的执行模型。在可解释性方面,我们观察注意力模式的显着结构,在动量转点时具有重要的重要性。因此,时间序列被分段为制度,并且该模型倾向于关注以前的制度中的先前时间步骤。我们发现ChangePoint检测(CPD)[2105.13727],另一个用于响应政权变化的技术可以补充多抬头的注意力,特别是当我们在多个时间尺度运行CPD时。通过添加可解释的变量选择网络,我们观察CPD如何帮助我们的模型在日常返回数据上主要远离交易。我们注意到该模型可以智能地切换和混合古典策略 - 基于数据的决定。
translated by 谷歌翻译
A well-performing prediction model is vital for a recommendation system suggesting actions for energy-efficient consumer behavior. However, reliable and accurate predictions depend on informative features and a suitable model design to perform well and robustly across different households and appliances. Moreover, customers' unjustifiably high expectations of accurate predictions may discourage them from using the system in the long term. In this paper, we design a three-step forecasting framework to assess predictability, engineering features, and deep learning architectures to forecast 24 hourly load values. First, our predictability analysis provides a tool for expectation management to cushion customers' anticipations. Second, we design several new weather-, time- and appliance-related parameters for the modeling procedure and test their contribution to the model's prediction performance. Third, we examine six deep learning techniques and compare them to tree- and support vector regression benchmarks. We develop a robust and accurate model for the appliance-level load prediction based on four datasets from four different regions (US, UK, Austria, and Canada) with an equal set of appliances. The empirical results show that cyclical encoding of time features and weather indicators alongside a long-short term memory (LSTM) model offer the optimal performance.
translated by 谷歌翻译
The outburst of COVID-19 in late 2019 was the start of a health crisis that shook the world and took millions of lives in the ensuing years. Many governments and health officials failed to arrest the rapid circulation of infection in their communities. The long incubation period and the large proportion of asymptomatic cases made COVID-19 particularly elusive to track. However, wastewater monitoring soon became a promising data source in addition to conventional indicators such as confirmed daily cases, hospitalizations, and deaths. Despite the consensus on the effectiveness of wastewater viral load data, there is a lack of methodological approaches that leverage viral load to improve COVID-19 forecasting. This paper proposes using deep learning to automatically discover the relationship between daily confirmed cases and viral load data. We trained one Deep Temporal Convolutional Networks (DeepTCN) and one Temporal Fusion Transformer (TFT) model to build a global forecasting model. We supplement the daily confirmed cases with viral loads and other socio-economic factors as covariates to the models. Our results suggest that TFT outperforms DeepTCN and learns a better association between viral load and daily cases. We demonstrated that equipping the models with the viral load improves their forecasting performance significantly. Moreover, viral load is shown to be the second most predictive input, following the containment and health index. Our results reveal the feasibility of training a location-agnostic deep-learning model to capture the dynamics of infection diffusion when wastewater viral load data is provided.
translated by 谷歌翻译
学习复杂的时间序列预测模型通常需要大量数据,因为每个任务/数据集都会从头开始训练每个模型。利用类似数据集利用学习经验是一种公认​​的技术,用于分类问题,称为几个射击分类。但是,现有方法不能应用于预测时间序列,因为i)多元时间序列数据集具有不同的渠道,ii)预测与分类主要不同。在本文中,我们首次使用异质通道对时间序列的几个预测进行正式的问题。扩展了有关矢量数据中异质属性的最新工作,我们开发了一个由置换不变的深set块组成的模型,该模型结合了时间嵌入。我们组装了40个多元时间序列数据集的第一个元数据集,并通过实验显示我们的模型提供了一个良好的概括,优于从更简单的场景中延续的基线,这些基线要么无法跨任务学习或错过时间信息。
translated by 谷歌翻译
在线广告收入占发布者的收入流越来越多的份额,特别是对于依赖谷歌和Facebook等技术公司广告网络的中小型出版商而言。因此,出版商可能会从准确的在线广告收入预测中获益,以更好地管理其网站货币化战略。但是,只能获得自己的收入数据的出版商缺乏出版商广告总市场的整体视图,这反过来限制了他们在他们未来的在线广告收入中产生见解的能力。为了解决这一业务问题,我们利用了一个专有的数据库,包括来自各种各样的地区的大量出版商的Google Adsense收入。我们采用时间融合变压器(TFT)模型,这是一种新的基于关注的架构,以预测出版商的广告收入。我们利用多个协变量,不仅包括出版商自己的特征,还包括其他出版商的广告收入。我们的预测结果优于多个时间范围的几个基准深度学习时间系列预测模型。此外,我们通过分析可变重要性重量来识别显着的特征和自我注意重量来解释结果,以揭示持久的时间模式。
translated by 谷歌翻译
急诊部门(EDS)是葡萄牙国家卫生服务局的基本要素,可作为具有多样化和非常严重医疗问题的用户的切入点。由于ED的固有特征;预测使用服务的患者数量特别具有挑战性。富裕和医疗专业人员人数之间的不匹配可能会导致提供的服务质量下降,并造成对整个医院产生影响的问题,并从其他部门征用医疗保健工作者以及推迟手术。 。 ED人满为患的部分是由非紧急患者驱动的,尽管没有医疗紧急情况,但诉诸于紧急服务,几乎占每日患者总数的一半。本文描述了一种新颖的深度学习体系结构,即时间融合变压器,该结构使用日历和时间序列协变量来预测预测间隔和4周期间的点预测。我们得出的结论是,可以预测葡萄牙健康区域(HRA)(HRA)的平均绝对百分比误差(MAPE)和均方根误差(RMSE)为84.4102人/天的平均绝对百分比误差(MAPE)。本文显示了支持使用静态和时间序列协变量的多元方法的经验证据,同时超越了文献中常见的其他模型。
translated by 谷歌翻译
时空时间序列的神经预测推动了几个相关应用领域的研究和工业创新。图神经网络(GNN)通常是预测体系结构的核心组成部分。但是,在大多数时空gnns中,计算复杂度比序列时间长度缩放到二次因子,图中链接的数量是图中的链接数,因此阻碍了这些模型在大图和长时间序列中的应用。尽管在静态图的背景下提出了提高可伸缩性的方法,但很少有研究工作专门用于时空情况。为了填补这一空白,我们提出了一个可扩展的体系结构,该体系结构利用了时间和空间动力学的有效编码。特别是,我们使用一个随机的复发神经网络将输入时间序列的历史嵌入到包括多尺度时间动力学的高维状态表示中。然后,使用图形邻接矩阵的不同功率沿空间维度沿空间维度传播,以生成以富含时空特征池的特征的节点嵌入。可以在不监督的方式中有效地预先计算所得的节点嵌入,然后将其馈送到馈送前向解码器,该解码器学会映射多尺度时空表示形式为预测。然后,可以通过对节点的嵌入而无需破坏任何依赖性,从而使训练过程在节点方面并行化,从而可以对大型网络进行可扩展性。相关数据集的经验结果表明,我们的方法可以与最新技术的状态竞争,同时大大减轻了计算负担。
translated by 谷歌翻译