我们提出了一种方法,用于在主动电分布网络中考虑使用脆弱节点识别的最佳DERS分配,并将这些节点命名为关键节点。这些关键节点的功率变化将显着影响其他链接节点的运行,因此这些节点适合使用,并且认为最适合DERS放置。我们在标准的IEEE-123测试馈线系统中证明了我们的方法评估。最初,我们使用图理论将分布系统划分为最佳微电网网络。使用图神经网络体系结构对分区进行了验证,以适当形成微电网。此外,使用有效的可测量分析(例如Granger因果关系),我们确定了分区的微电网中的关键节点和在这些节点上的DERS放置,从而提高了网络可靠性和弹性。此外,为了验证系统性能和能量弹性,我们计算了微电网网络的渗透阈值,该网络指示了在这些关键节点上掺入DER后系统弹性。这项提出的有关首先的方法可确保通过分布网络中数据驱动的分析方法来确定有效的微电网分配,关键节点的识别,最佳DERS分配和系统弹性评估。
translated by 谷歌翻译
最近,电分配系统被分布式能源(DER)广泛渗透,以满足能量需求,以一般的看法,即增强系统的弹性。但是,由于其间歇性可用性,天气状况的动态,非线性,复杂性的引入等各种因素,这可能是不利的。这需要对我们的方法在这里提出的对系统弹性的详细理解。我们介绍了一种使用复杂网络理论的方法,以确定与太阳能PV生成在各种不良配置下合并时分配系统的弹性。获得了不同条件的复杂相关网络,并计算了各种网络参数以识别这些网络的弹性。所提出的方法可以确定系统中太阳能电池板的托管能力,同时在不同的不需要条件下保持弹性有助于获得系统中太阳能电池板的最佳分配拓扑。所提出的方法还标识了对变化高度敏感的关键节点,并可能将系统推向非弹性。该框架在IEEE-123测试馈线系统上使用了使用GridLab-D生成的时间序列数据,并使用复杂的网络和机器学习模型进行了多种分析。
translated by 谷歌翻译
图表神经网络(GNN)基于故障诊断(FD)近年来收到了越来越多的关注,因为来自来自多个应用域的数据可以有利地表示为图。实际上,与传统的FD方法相比,这种特殊的代表性表格导致了卓越的性能。在本次审查中,给出了GNN,对故障诊断领域的潜在应用以及未来观点的简单介绍。首先,通过专注于它们的数据表示,即时间序列,图像和图形,回顾基于神经网络的FD方法。其次,引入了GNN的基本原则和主要架构,注意了图形卷积网络,图注意网络,图形样本和聚合,图形自动编码器和空间 - 时间图卷积网络。第三,通过详细实验验证基于GNN的最相关的故障诊断方法,结论是基于GNN的方法可以实现良好的故障诊断性能。最后,提供了讨论和未来的挑战。
translated by 谷歌翻译
通信网络是当代社会中的重要基础设施。仍存在许多挑战,在该活性研究区域中不断提出新的解决方案。近年来,为了模拟网络拓扑,基于图形的深度学习在通信网络中的一系列问题中实现了最先进的性能。在本调查中,我们使用基于不同的图形的深度学习模型来审查快速增长的研究机构,例如,使用不同的图形深度学习模型。图表卷积和曲线图注意网络,在不同类型的通信网络中的各种问题中,例如,无线网络,有线网络和软件定义的网络。我们还为每项研究提供了一个有组织的问题和解决方案列表,并确定了未来的研究方向。据我们所知,本文是第一个专注于在涉及有线和无线场景的通信网络中应用基于图形的深度学习方法的调查。要跟踪后续研究,创建了一个公共GitHub存储库,其中相关文件将不断更新。
translated by 谷歌翻译
相互联系的复杂系统通常由于内部不确定性和外部负面影响而受到干扰,例如严酷的操作环境或区域自然灾害事件引起的影响。为了在内部和外部挑战下保持相互联系的网络系统的运行,通过更好的设计和提高故障恢复功能来增强系统的可靠性,进行了弹性研究的设计。至于增强设计,由于现代系统的规模越来越大,并且存在复杂的潜在物理限制,因此出现了设计强大系统的挑战。为了应对这些挑战并有效地设计弹性系统,本研究提出了一种使用图形学习算法的生成设计方法。生成设计框架包含性能估计器和候选设计生成器。发电机可以从现有系统中明智地挖掘出良好的属性,并输出符合预定义绩效标准的新设计。尽管估计器可以有效地预测生成的设计的性能,从而在快速的迭代学习过程中。基于IEEE数据集的电力系统的案例研究结果说明了所提出的方法设计弹性互连系统的适用性。
translated by 谷歌翻译
机器学习,在深入学习的进步,在过去分析时间序列方面表现出巨大的潜力。但是,在许多情况下,可以通过将其结合到学习方法中可能改善预测的附加信息。这对于由例如例如传感器位置的传感器网络而产生的数据至关重要。然后,可以通过通过图形结构建模,以及顺序(时间)信息来利用这种空间信息。适应深度学习的最新进展在各种图形相关任务中表明了有希望的潜力。但是,这些方法尚未在很大程度上适用于时间序列相关任务。具体而言,大多数尝试基本上围绕空间 - 时间图形神经网络巩固了时间序列预测的小序列长度。通常,这些架构不适合包含大数据序列的回归或分类任务。因此,在这项工作中,我们使用图形神经网络的好处提出了一种能够在多变量时间序列回归任务中处理这些长序列的架构。我们的模型在包含地震波形的两个地震数据集上进行测试,其中目标是预测在一组站的地面摇动的强度测量。我们的研究结果表明了我们的方法的有希望的结果,这是深入讨论的额外消融研究。
translated by 谷歌翻译
准确的交通状况预测为车辆环境协调和交通管制任务提供了坚实的基础。由于道路网络数据在空间分布中的复杂性以及深度学习方法的多样性,有效定义流量数据并充分捕获数据中复杂的空间非线性特征变得具有挑战性。本文将两种分层图池方法应用于流量预测任务,以减少图形信息冗余。首先,本文验证了流量预测任务中层次图池方法的有效性。分层图合并方法与其他基线在预测性能上形成鲜明对比。其次,应用了两种主流分层图池方法,节点群集池和节点下降池,用于分析流量预测中的优势和弱点。最后,对于上述图神经网络,本文比较了不同图网络输入对流量预测准确性的预测效应。分析和汇总定义图网络的有效方法。
translated by 谷歌翻译
在时间序列预测的各种软计算方法中,模糊认知地图(FCM)已经显示出显着的结果作为模拟和分析复杂系统动态的工具。 FCM具有与经常性神经网络的相似之处,可以被分类为神经模糊方法。换句话说,FCMS是模糊逻辑,神经网络和专家系统方面的混合,它作为模拟和研究复杂系统的动态行为的强大工具。最有趣的特征是知识解释性,动态特征和学习能力。本调查纸的目标主要是在文献中提出的最相关和最近的基于FCCM的时间序列预测模型概述。此外,本文认为介绍FCM模型和学习方法的基础。此外,该调查提供了一些旨在提高FCM的能力的一些想法,以便在处理非稳定性数据和可扩展性问题等现实实验中涵盖一些挑战。此外,具有快速学习算法的FCMS是该领域的主要问题之一。
translated by 谷歌翻译
理解神经动力学的空间和时间特征之间的相互作用可以有助于我们对人脑中信息处理的理解。图形神经网络(GNN)提供了一种新的可能性,可以解释图形结构化信号,如在复杂的大脑网络中观察到的那些。在我们的研究中,我们比较不同的时空GNN架构,并研究他们复制在功能MRI(FMRI)研究中获得的神经活动分布的能力。我们评估GNN模型在MRI研究中各种场景的性能,并将其与VAR模型进行比较,目前主要用于定向功能连接分析。我们表明,即使当可用数据稀缺时,基于基于解剖学基板的局部功能相互作用,基于GNN的方法也能够鲁棒地规模到大型网络研究。通过包括作为信息衬底的解剖连接以进行信息传播,这种GNN还提供了关于指向连接性分析的多模阶视角,提供了研究脑网络中的时空动态的新颖可能性。
translated by 谷歌翻译
This paper presents a Temporal Graph Neural Network (TGNN) framework for detection and localization of false data injection and ramp attacks on the system state in smart grids. Capturing the topological information of the system through the GNN framework along with the state measurements can improve the performance of the detection mechanism. The problem is formulated as a classification problem through a GNN with message passing mechanism to identify abnormal measurements. The residual block used in the aggregation process of message passing and the gated recurrent unit can lead to improved computational time and performance. The performance of the proposed model has been evaluated through extensive simulations of power system states and attack scenarios showing promising performance. The sensitivity of the model to intensity and location of the attacks and model's detection delay versus detection accuracy have also been evaluated.
translated by 谷歌翻译
Deep learning has revolutionized many machine learning tasks in recent years, ranging from image classification and video processing to speech recognition and natural language understanding. The data in these tasks are typically represented in the Euclidean space. However, there is an increasing number of applications where data are generated from non-Euclidean domains and are represented as graphs with complex relationships and interdependency between objects. The complexity of graph data has imposed significant challenges on existing machine learning algorithms. Recently, many studies on extending deep learning approaches for graph data have emerged. In this survey, we provide a comprehensive overview of graph neural networks (GNNs) in data mining and machine learning fields. We propose a new taxonomy to divide the state-of-the-art graph neural networks into four categories, namely recurrent graph neural networks, convolutional graph neural networks, graph autoencoders, and spatial-temporal graph neural networks. We further discuss the applications of graph neural networks across various domains and summarize the open source codes, benchmark data sets, and model evaluation of graph neural networks. Finally, we propose potential research directions in this rapidly growing field.
translated by 谷歌翻译
Modeling multivariate time series has long been a subject that has attracted researchers from a diverse range of fields including economics, finance, and traffic. A basic assumption behind multivariate time series forecasting is that its variables depend on one another but, upon looking closely, it's fair to say that existing methods fail to fully exploit latent spatial dependencies between pairs of variables. In recent years, meanwhile, graph neural networks (GNNs) have shown high capability in handling relational dependencies. GNNs require well-defined graph structures for information propagation which means they cannot be applied directly for multivariate time series where the dependencies are not known in advance. In this paper, we propose a general graph neural network framework designed specifically for multivariate time series data. Our approach automatically extracts the uni-directed relations among variables through a graph learning module, into which external knowledge like variable attributes can be easily integrated. A novel mix-hop propagation layer and a dilated inception layer are further proposed to capture the spatial and temporal dependencies within the time series. The graph learning, graph convolution, and temporal convolution modules are jointly learned in an end-to-end framework. Experimental results show that our proposed model outperforms the state-of-the-art baseline methods on 3 of 4 benchmark datasets and achieves on-par performance with other approaches on two traffic datasets which provide extra structural information. CCS CONCEPTS• Computing methodologies → Neural networks; Artificial intelligence.
translated by 谷歌翻译
我们提出了一种基于图形神经网络(GNN)的端到端框架,以平衡通用网格中的功率流。优化被帧为监督的顶点回归任务,其中GNN培训以预测每个网格分支的电流和功率注入,从而产生功率流量平衡。通过将电网表示为与顶点的分支的线图,我们可以培训一个更准确和强大的GNN来改变底层拓扑。此外,通过使用专门的GNN层,我们能够构建一个非常深的架构,该架构占图表上的大街区,同时仅实现本地化操作。我们执行三个不同的实验来评估:i)使用深入GNN模型时使用本地化而不是全球运营的好处和趋势; ii)图形拓扑中对扰动的弹性;和iii)能力同时在多个网格拓扑上同时培训模型以及新的看不见网格的概括性的改进。拟议的框架是有效的,而且与基于深度学习的其他求解器相比,不仅对网格组件上的物理量而且对拓扑的物理量具有鲁棒性。
translated by 谷歌翻译
情绪预测在心理健康和情绪感知计算中起着至关重要的作用。情绪的复杂性质是由于其对一个人的生理健康,精神状态和周围环境的依赖而产生的,这使其预测一项艰巨的任务。在这项工作中,我们利用移动传感数据来预测幸福和压力。除了一个人的生理特征外,我们还通过天气和社交网络纳入了环境的影响。为此,我们利用电话数据来构建社交网络并开发机器学习体系结构,该架构从图形网络的多个用户中汇总信息,并将其与数据的时间动态集成在一起,以预测所有用户的情感。社交网络的构建不会在用户的EMA或数据收集方面产生额外的成本,也不会引起隐私问题。我们提出了一种自动化用户社交网络影响预测的架构,能够处理现实生活中社交网络的动态分布,从而使其可扩展到大规模网络。我们广泛的评估突出了社交网络集成提供的改进。我们进一步研究了图形拓扑对模型性能的影响。
translated by 谷歌翻译
Graph neural networks (GNNs) have been demonstrated to be a powerful algorithmic model in broad application fields for their effectiveness in learning over graphs. To scale GNN training up for large-scale and ever-growing graphs, the most promising solution is distributed training which distributes the workload of training across multiple computing nodes. However, the workflows, computational patterns, communication patterns, and optimization techniques of distributed GNN training remain preliminarily understood. In this paper, we provide a comprehensive survey of distributed GNN training by investigating various optimization techniques used in distributed GNN training. First, distributed GNN training is classified into several categories according to their workflows. In addition, their computational patterns and communication patterns, as well as the optimization techniques proposed by recent work are introduced. Second, the software frameworks and hardware platforms of distributed GNN training are also introduced for a deeper understanding. Third, distributed GNN training is compared with distributed training of deep neural networks, emphasizing the uniqueness of distributed GNN training. Finally, interesting issues and opportunities in this field are discussed.
translated by 谷歌翻译
Time series anomaly detection has applications in a wide range of research fields and applications, including manufacturing and healthcare. The presence of anomalies can indicate novel or unexpected events, such as production faults, system defects, or heart fluttering, and is therefore of particular interest. The large size and complex patterns of time series have led researchers to develop specialised deep learning models for detecting anomalous patterns. This survey focuses on providing structured and comprehensive state-of-the-art time series anomaly detection models through the use of deep learning. It providing a taxonomy based on the factors that divide anomaly detection models into different categories. Aside from describing the basic anomaly detection technique for each category, the advantages and limitations are also discussed. Furthermore, this study includes examples of deep anomaly detection in time series across various application domains in recent years. It finally summarises open issues in research and challenges faced while adopting deep anomaly detection models.
translated by 谷歌翻译
Analyzing the behavior of complex interdependent networks requires complete information about the network topology and the interdependent links across networks. For many applications such as critical infrastructure systems, understanding network interdependencies is crucial to anticipate cascading failures and plan for disruptions. However, data on the topology of individual networks are often publicly unavailable due to privacy and security concerns. Additionally, interdependent links are often only revealed in the aftermath of a disruption as a result of cascading failures. We propose a scalable nonparametric Bayesian approach to reconstruct the topology of interdependent infrastructure networks from observations of cascading failures. Metropolis-Hastings algorithm coupled with the infrastructure-dependent proposal are employed to increase the efficiency of sampling possible graphs. Results of reconstructing a synthetic system of interdependent infrastructure networks demonstrate that the proposed approach outperforms existing methods in both accuracy and computational time. We further apply this approach to reconstruct the topology of one synthetic and two real-world systems of interdependent infrastructure networks, including gas-power-water networks in Shelby County, TN, USA, and an interdependent system of power-water networks in Italy, to demonstrate the general applicability of the approach.
translated by 谷歌翻译
交通流量预测是智能运输系统的重要组成部分,从而受到了研究人员的关注。但是,交通道路之间的复杂空间和时间依赖性使交通流量的预测具有挑战性。现有方法通常是基于图形神经网络,使用交通网络的预定义空间邻接图来建模空间依赖性,而忽略了道路节点之间关系的动态相关性。此外,他们通常使用独立的时空组件来捕获时空依赖性,并且不会有效地对全局时空依赖性进行建模。本文提出了一个新的时空因果图形注意网络(STCGAT),以解决上述挑战。在STCGAT中,我们使用一种节点嵌入方法,可以在每个时间步骤中自适应生成空间邻接子图,而无需先验地理知识和对不同时间步骤动态生成图的拓扑的精细颗粒建模。同时,我们提出了一个有效的因果时间相关成分,其中包含节点自适应学习,图形卷积以及局部和全局因果关系卷积模块,以共同学习局部和全局时空依赖性。在四个真正的大型流量数据集上进行的广泛实验表明,我们的模型始终优于所有基线模型。
translated by 谷歌翻译
建模传染病传播的时空性质可以提供有用的直觉,以了解疾病传播的时变方面,并且在人们的行动模式中观察到的潜在的复杂空间依赖性。此外,可以利用县级多相关时间序列信息,以便在单个时间序列进行预测。添加到这一挑战是实时数据常常偏离单向高斯分布假设,并且可以显示一些复杂的混合模式。由此激励,我们开发了一种基于深度学习的时间序列模型,用于自动回归混合密度动态扩散网络(ARM3DNet)的概率预测,其认为人们的移动性和疾病在动态定向图上传播。实现高斯混合模型层以考虑从多个相关时间序列学习的实时数据的多模式性质。我们展示了我们的模型,当由于动态协变量特征和混合成分的最佳组合培训时,可以超越传统的统计和深度学习模式,以预测美国县级的Covid-19死亡和案例的数量。
translated by 谷歌翻译
最近的研究表明,在将图神经网络应用于多元时间序列预测中,其中时间序列的相互作用被描述为图形结构,并且变量表示为图节点。沿着这一行,现有方法通常假定确定图神经网络的聚合方式的图形结构(或邻接矩阵)是根据定义或自学来固定的。但是,变量的相互作用在现实情况下可以是动态的和进化的。此外,如果在不同的时间尺度上观察到时间序列的相互作用序列的相互作用大不相同。为了使图形神经网络具有灵活而实用的图结构,在本文中,我们研究了如何对时间序列的进化和多尺度相互作用进行建模。特别是,我们首先提供与扩张的卷积配合的层次图结构,以捕获时间序列之间的比例特定相关性。然后,以经常性的方式构建了一系列邻接矩阵,以表示每一层的不断发展的相关性。此外,提供了一个统一的神经网络来集成上述组件以获得最终预测。这样,我们可以同时捕获成对的相关性和时间依赖性。最后,对单步和多步骤预测任务的实验证明了我们方法比最新方法的优越性。
translated by 谷歌翻译