时间点过程作为连续域的随机过程通常用于模拟具有发生时间戳的异步事件序列。由于深度神经网络的强烈表达性,在时间点过程的背景下,它们是捕获异步序列中的模式的有希望的选择。在本文中,我们首先审查了最近的研究强调和困难,在深处时间点过程建模异步事件序列,可以得出四个领域:历史序列的编码,条件强度函数的制定,事件的关系发现和学习方法优化。我们通过将其拆除进入四个部分来介绍最近提出的模型,并通过对公平实证评估的相同学习策略进行重新涂布前三个部分进行实验。此外,我们扩展了历史编码器和条件强度函数家族,并提出了一种GRANGER因果区发现框架,用于利用多种事件之间的关系。因为格兰杰因果关系可以由格兰杰因果关系图表示,所以采用分层推断框架中的离散图结构学习来揭示图的潜在结构。进一步的实验表明,具有潜在图表发现的提议框架可以捕获关系并实现改进的拟合和预测性能。
translated by 谷歌翻译
时间点过程(TPP)通常用于模拟具有出现时间戳的异步事件序列,并由以历史影响为条件的概率模型揭示。尽管以前的许多作品通过最大程度地提高了TPP模型的“合适性”,但它们的预测性能不令人满意,这意味着模型产生的时间戳与真实的观察相距甚远。最近,诸如DENOTO扩散和得分匹配模型之类的深层生成模型通过证明其生成高质量样本的能力,在图像生成任务方面取得了巨大进展。但是,在事件发生在TPP的情况下,尚无完整而统一的作品来探索和研究生成模型的潜力。在这项工作中,我们尝试通过设计一个unified \ textbf {g} \ textbf {n} eural \ textbf {t} emporal \ emporal \ textbf {p} oint \ textbf {p} rocess {p} rocess(\ textsc {\ textsc { GNTPP})模型探索其可行性和有效性,并进一步改善模型的预测性能。此外,在衡量历史影响方面,我们修改了细心的模型,这些模型总结了历史事件的影响,并以适应性的重新加权术语来考虑事件的类型关系和时间间隔。已经进行了广泛的实验,以说明\ textsc {gntpp}的预测能力的提高,并用一系列生成概率解码器,并从修订后的注意力中获得了绩效增长。据我们所知,这是第一批适应生成模型在完整的统一框架中并在TPP背景下研究其有效性的作品。我们的代码库包括第5.1.1节中给出的所有方法。5.1.1在\ url {https://github.com/bird-tao/gntpp}中打开。我们希望代码框架可以促进神经TPP的未来研究。
translated by 谷歌翻译
学习时空事件的动态是一个根本的问题。神经点过程提高了与深神经网络的点过程模型的表现。但是,大多数现有方法只考虑没有空间建模的时间动态。我们提出了深蓝点过程(DeepStpp),这是一款整合时空点流程的深层动力学模型。我们的方法灵活,高效,可以在空间和时间准确地预测不规则采样的事件。我们方法的关键构造是非参数时空强度函数,由潜在过程管理。强度函数享有密度的闭合形式集成。潜在进程捕获事件序列的不确定性。我们使用摊销变分推理来推断使用深网络的潜在进程。使用合成数据集,我们验证我们的模型可以准确地学习真实的强度函数。在真实世界的基准数据集上,我们的模型展示了最先进的基线的卓越性能。
translated by 谷歌翻译
基于预测方法的深度学习已成为时间序列预测或预测的许多应用中的首选方法,通常通常优于其他方法。因此,在过去的几年中,这些方法现在在大规模的工业预测应用中无处不在,并且一直在预测竞赛(例如M4和M5)中排名最佳。这种实践上的成功进一步提高了学术兴趣,以理解和改善深厚的预测方法。在本文中,我们提供了该领域的介绍和概述:我们为深入预测的重要构建块提出了一定深度的深入预测;随后,我们使用这些构建块,调查了最近的深度预测文献的广度。
translated by 谷歌翻译
我们提出了一种新型的复发图网络(RGN)方法,用于通过学习潜在的复杂随机过程来预测离散标记的事件序列。使用点过程的框架,我们将标记的离散事件序列解释为各种唯一类型的不同序列的叠加。图网络的节点使用LSTM来合并过去的信息,而图形注意力网络(GAT网络)引入了强烈的电感偏见,以捕获这些不同类型的事件之间的相互作用。通过更改自我注意力的机制从过去的事件中参加活动,我们可以从$ \ MATHCAL {O}(n^2)$(事件总数)到$ \ Mathcal的时间和空间复杂性降低{o}(| \ Mathcal {y} |^2)$(事件类型的数量)。实验表明,与最新的基于最新的变压器架构相比,所提出的方法可以提高对数可能具有较低时间和空间复杂性的对数可能具有较低时间和空间复杂性的任务的性能。
translated by 谷歌翻译
近年来,霍克斯进程的异步序列的知识是一个值得关注的主题,基于神经网络的鹰过程逐渐成为最热门研究的领域,特别是基于复发神经网络(RNN)。然而,这些模型仍然包含RNN的一些固有缺点,例如消失和爆炸梯度和长期依赖性问题。同时,基于自我关注的变压器在文本处理和语音识别等顺序建模中取得了巨大成功。虽然变压器鹰过程(THP)已经获得了巨大的性能改进,但是THP不会有效地利用异步事件中的时间信息,因为这些异步序列,事件发生时刻与事件的类型一样重要,而传统的THPS只是转换时间信息进入位置编码并将其添加为变压器的输入。考虑到这一点,我们提出了一种新型的基于变压器的霍克斯工艺模型,暂时关注增强变压器鹰过程(TAA-THP),我们修改了传统的DOT产品注意力结构,并介绍了关注结构的时间编码。我们对多种合成和现实生活数据集进行多项实验,以验证我们提出的TAA-THP模型的性能,与现有的基线模型相比,在不同测量上实现的显着改进,包括在测试数据集上的日志可能性,并预测事件类型的准确性和发生时间。此外,通过烧蚀研究,我们通过比较模型的性能和没有时间关注的模型的性能,生动地证明了引入额外的时间关注的优点。
translated by 谷歌翻译
异步事件序列广泛分布在自然界和人类活动中,例如地震记录,社交媒体中的用户活动等。如何蒸馏来自这些看似混乱的数据是研究人员专注的持久主题。最有用的模型之一是点过程模型,在此基础上,研究人员获得了许多明显的结果。此外,近年来,提出了神经网络基础的点过程模型,特别是复发性神经网络(RNN),并与传统模型进行比较,其性能大大提高。变压器模型的启发,可以有效地学习序列数据而无需反复和卷积结构,变压器鹰过程出现,并实现了最先进的性能。然而,有一些研究证明,转换变压器中的递归计算可以进一步提高变压器性能。因此,我们出现了一种新型的变压器鹰过程模型,通用变压器鹰过程(UTHP),其中包含递归机制和自我关注机制,并提高了模型的局部感知能力,我们还介绍了卷积神经网络(CNN)在位置方向前馈部分。我们对几个数据集进行实验,以验证UTHP的有效性,并在引入递归机制后探索变化。这些关于多个数据集的实验表明,与以前的最先进模型相比,我们提出的新模式的性能具有一定的改进。
translated by 谷歌翻译
通过人类活动(例如在线购买,健康记录,空间流动性等)生成的大量数据可以在连续时间内表示为一系列事件。在这些连续的时间事件序列上学习深度学习模型是一项非平凡的任务,因为它涉及建模不断增加的事件时间戳,活动间时间差距,事件类型以及不同序列内部和跨不同序列之间的不同事件之间的影响。近年来,对标记的时间点过程(MTPP)的神经增强功能已成为一种强大的框架,以模拟连续时间内定位的异步事件的基本生成机制。但是,MTPP框架中的大多数现有模型和推理方法仅考虑完整的观察方案,即所建模的事件序列是完全观察到的,没有丢失的事件 - 理想的设置很少适用于现实世界应用程序。最近考虑的事件的最新工作是在培训MTPP时采用监督的学习技术,这些技术需要以序列的方式了解每个事件的丢失或观察标签,这进一步限制了其实用性,因为在几种情况下,缺失事件的细节是不知道的apriori 。在这项工作中,我们提供了一种新颖的无监督模型和推理方法,用于在存在事件序列的情况下学习MTPP。具体而言,我们首先使用两个MTPP模拟观察到的事件和缺失事件的生成过程,其中缺少事件表示为潜在的随机变量。然后,我们设计了一种无监督的训练方法,该方法通过变异推断共同学习MTPP。这样的公式可以有效地将丢失的数据归为观察到的事件,并可以在序列中确定缺失事件的最佳位置。
translated by 谷歌翻译
Pre-publication draft of a book to be published byMorgan & Claypool publishers. Unedited version released with permission. All relevant copyrights held by the author and publisher extend to this pre-publication draft.
translated by 谷歌翻译
这项工作引入了一种新颖的多变量时间点过程,部分均值行为泊松(PMBP)过程,可以利用以将多变量霍克斯过程适合部分间隔删除的数据,该数据包括在尺寸和间隔子集上的事件时间戳的混合中组成的数据。 - 委员会互补尺寸的事件计数。首先,我们通过其条件强度定义PMBP过程,并导出子临界性的规律性条件。我们展示了鹰过程和MBP过程(Rizoiu等人)是PMBP过程的特殊情况。其次,我们提供了能够计算PMBP过程的条件强度和采样事件历史的数字方案。第三,我们通过使用合成和现实世界数据集来证明PMBP过程的适用性:我们测试PMBP过程的能力,以恢复多变量霍克参数给出鹰过程的样本事件历史。接下来,我们在YouTube流行预测任务上评估PMBP过程,并表明它优于当前最先进的鹰强度过程(Rizoiu等人。(2017b))。最后,在Covid19的策划数据集上,关于国家样本的Covid19每日案例计数和Covid19相关的新闻文章,我们展示了PMBP拟合参数上的聚类使各国的分类能够分类案件和新闻的国家级互动报告。
translated by 谷歌翻译
时间变化数量的估计是医疗保健和金融等领域决策的基本组成部分。但是,此类估计值的实际实用性受到它们量化预测不确定性的准确程度的限制。在这项工作中,我们解决了估计高维多元时间序列的联合预测分布的问题。我们提出了一种基于变压器体系结构的多功能方法,该方法使用基于注意力的解码器估算关节分布,该解码器可被学会模仿非参数Copulas的性质。最终的模型具有多种理想的属性:它可以扩展到数百个时间序列,支持预测和插值,可以处理不规则和不均匀的采样数据,并且可以在训练过程中无缝地适应丢失的数据。我们从经验上证明了这些属性,并表明我们的模型在多个现实世界数据集上产生了最新的预测。
translated by 谷歌翻译
人口级社会事件,如民事骚乱和犯罪,往往对我们的日常生活产生重大影响。预测此类事件对于决策和资源分配非常重要。由于缺乏关于事件发生的真实原因和潜在机制的知识,事件预测传统上具有挑战性。近年来,由于两个主要原因,研究事件预测研究取得了重大进展:(1)机器学习和深度学习算法的开发和(2)社交媒体,新闻来源,博客,经济等公共数据的可访问性指标和其他元数据源。软件/硬件技术中的数据的爆炸性增长导致了社会事件研究中的深度学习技巧的应用。本文致力于提供社会事件预测的深层学习技术的系统和全面概述。我们专注于两个社会事件的域名:\ Texit {Civil unrest}和\ texit {犯罪}。我们首先介绍事件预测问题如何作为机器学习预测任务制定。然后,我们总结了这些问题的数据资源,传统方法和最近的深度学习模型的发展。最后,我们讨论了社会事件预测中的挑战,并提出了一些有希望的未来研究方向。
translated by 谷歌翻译
任何人类活动都可以表示为实现某个目标的行动的时间顺序。与机器制造的时间序列不同,这些动作序列是高度分散的,因为在不同的人之间完成类似动作的时间可能会有所不同。因此,了解这些序列的动力学对于许多下游任务,例如活动长度预测,目标预测等都是必不可少的。对活动序列建模的现有神经方法要么仅限于视觉数据,要么是特定于任务的神经方法,即仅限于下一个动作或目标预测。在本文中,我们提出了积极主动的,是一个神经标记的时间点过程(MTPP)框架,用于建模活动序列中的动作连续时间分布,同时解决三个高影响力问题 - 下一步动作预测,序列 - 目标预测,序列预测,和端到端序列生成。具体而言,我们利用具有时间归一化流量的自我发项模块来模拟序列中的动作之间的影响和到达时间间的时间。此外,对于时间敏感的预测,我们通过基于边缘的优化程序进行了序列目标的早期检测。这种往返允许积极主动使用有限数量的动作来预测序列目标。从三个活动识别数据集得出的序列进行的广泛实验表明,在动作和目标预测方面,主动的准确性提升了,并且是有史以来第一次应用端到端动作序列生成的实验。
translated by 谷歌翻译
Outstanding achievements of graph neural networks for spatiotemporal time series analysis show that relational constraints introduce an effective inductive bias into neural forecasting architectures. Often, however, the relational information characterizing the underlying data-generating process is unavailable and the practitioner is left with the problem of inferring from data which relational graph to use in the subsequent processing stages. We propose novel, principled - yet practical - probabilistic score-based methods that learn the relational dependencies as distributions over graphs while maximizing end-to-end the performance at task. The proposed graph learning framework is based on consolidated variance reduction techniques for Monte Carlo score-based gradient estimation, is theoretically grounded, and, as we show, effective in practice. In this paper, we focus on the time series forecasting problem and show that, by tailoring the gradient estimators to the graph learning problem, we are able to achieve state-of-the-art performance while controlling the sparsity of the learned graph and the computational scalability. We empirically assess the effectiveness of the proposed method on synthetic and real-world benchmarks, showing that the proposed solution can be used as a stand-alone graph identification procedure as well as a graph learning component of an end-to-end forecasting architecture.
translated by 谷歌翻译
Normalizing flows provide a general mechanism for defining expressive probability distributions, only requiring the specification of a (usually simple) base distribution and a series of bijective transformations. There has been much recent work on normalizing flows, ranging from improving their expressive power to expanding their application. We believe the field has now matured and is in need of a unified perspective. In this review, we attempt to provide such a perspective by describing flows through the lens of probabilistic modeling and inference. We place special emphasis on the fundamental principles of flow design, and discuss foundational topics such as expressive power and computational trade-offs. We also broaden the conceptual framing of flows by relating them to more general probability transformations. Lastly, we summarize the use of flows for tasks such as generative modeling, approximate inference, and supervised learning.
translated by 谷歌翻译
We consider a sequential decision making problem where the agent faces the environment characterized by the stochastic discrete events and seeks an optimal intervention policy such that its long-term reward is maximized. This problem exists ubiquitously in social media, finance and health informatics but is rarely investigated by the conventional research in reinforcement learning. To this end, we present a novel framework of the model-based reinforcement learning where the agent's actions and observations are asynchronous stochastic discrete events occurring in continuous-time. We model the dynamics of the environment by Hawkes process with external intervention control term and develop an algorithm to embed such process in the Bellman equation which guides the direction of the value gradient. We demonstrate the superiority of our method in both synthetic simulator and real-world problem.
translated by 谷歌翻译
Time series anomaly detection has applications in a wide range of research fields and applications, including manufacturing and healthcare. The presence of anomalies can indicate novel or unexpected events, such as production faults, system defects, or heart fluttering, and is therefore of particular interest. The large size and complex patterns of time series have led researchers to develop specialised deep learning models for detecting anomalous patterns. This survey focuses on providing structured and comprehensive state-of-the-art time series anomaly detection models through the use of deep learning. It providing a taxonomy based on the factors that divide anomaly detection models into different categories. Aside from describing the basic anomaly detection technique for each category, the advantages and limitations are also discussed. Furthermore, this study includes examples of deep anomaly detection in time series across various application domains in recent years. It finally summarises open issues in research and challenges faced while adopting deep anomaly detection models.
translated by 谷歌翻译
Predicting discrete events in time and space has many scientific applications, such as predicting hazardous earthquakes and outbreaks of infectious diseases. History-dependent spatio-temporal Hawkes processes are often used to mathematically model these point events. However, previous approaches have faced numerous challenges, particularly when attempting to forecast one or multiple future events. In this work, we propose a new neural architecture for multi-event forecasting of spatio-temporal point processes, utilizing transformers, augmented with normalizing flows and probabilistic layers. Our network makes batched predictions of complex history-dependent spatio-temporal distributions of future discrete events, achieving state-of-the-art performance on a variety of benchmark datasets including the South California Earthquakes, Citibike, Covid-19, and Hawkes synthetic pinwheel datasets. More generally, we illustrate how our network can be applied to any dataset of discrete events with associated markers, even when no underlying physics is known.
translated by 谷歌翻译
大量的数据和创新算法使数据驱动的建模成为现代行业的流行技术。在各种数据驱动方法中,潜在变量模型(LVM)及其对应物占主要份额,并在许多工业建模领域中起着至关重要的作用。 LVM通常可以分为基于统计学习的经典LVM和基于神经网络的深层LVM(DLVM)。我们首先讨论经典LVM的定义,理论和应用,该定义和应用既是综合教程,又是对经典LVM的简短申请调查。然后,我们对当前主流DLVM进行了彻底的介绍,重点是其理论和模型体系结构,此后不久就提供了有关DLVM的工业应用的详细调查。上述两种类型的LVM具有明显的优势和缺点。具体而言,经典的LVM具有简洁的原理和良好的解释性,但是它们的模型能力无法解决复杂的任务。基于神经网络的DLVM具有足够的模型能力,可以在复杂的场景中实现令人满意的性能,但它以模型的解释性和效率为例。旨在结合美德并减轻这两种类型的LVM的缺点,并探索非神经网络的举止以建立深层模型,我们提出了一个新颖的概念,称为“轻量级Deep LVM(LDLVM)”。在提出了这个新想法之后,该文章首先阐述了LDLVM的动机和内涵,然后提供了两个新颖的LDLVM,并详尽地描述了其原理,建筑和优点。最后,讨论了前景和机会,包括重要的开放问题和可能的研究方向。
translated by 谷歌翻译
象征性的AI社区越来越多地试图在神经符号结构中接受机器学习,但由于文化障碍,仍在挣扎。为了打破障碍,这份相当有思想的个人备忘录试图解释和纠正统计,机器学习和深入学习的惯例,从局外人的角度进行深入学习。它提供了一个分步协议,用于设计一个机器学习系统,该系统满足符号AI社区认真对待所必需的最低理论保证,即,它讨论“在哪些条件下,我们可以停止担心和接受统计机器学习。 “一些亮点:大多数教科书都是为计划专门研究STAT/ML/DL的人编写的,应该接受术语。该备忘录适用于经验丰富的象征研究人员,他们听到了很多嗡嗡声,但仍然不确定和持怀疑态度。有关STAT/ML/DL的信息目前太分散或嘈杂而无法投资。此备忘录优先考虑紧凑性,并特别注意与象征性范式相互共鸣的概念。我希望这份备忘录能节省时间。它优先考虑一般数学建模,并且不讨论任何特定的函数近似器,例如神经网络(NNS),SVMS,决策树等。它可以对校正开放。将此备忘录视为与博客文章相似的内容,采用有关Arxiv的论文的形式。
translated by 谷歌翻译