时间网络已被广泛用于建模现实世界中的复杂系统,例如金融系统和电子商务系统。在时间网络中,一组节点的联合邻居通常提供至关重要的结构信息,以预测它们是否可以在一定时间相互作用。但是,最新的时间网络的表示学习方法通​​常无法提取此类信息或取决于极具耗时的特征构建方法。为了解决该问题,这项工作提出了邻里感知的时间网络模型(NAT)。对于网络中的每个节点,NAT放弃了常用的基于单个矢量的表示,同时采用了新颖的词典型邻域表示。这样的词典表示记录了一组相邻节点作为键,并可以快速构建多个节点联合邻域的结构特征。我们还设计了称为N-CACHE的专用数据结构,以支持GPU上这些字典表示的并行访问和更新。 NAT在七个现实世界大规模的时间网络上进行了评估。 NAT不仅胜过所有尖端基线的平均分别为5.9%和6.0%,分别具有换电和电感链路预测准确性,而且还可以通过对采用联合结构特征和实现的基准的加速提高4.1-76.7来保持可扩展性。对基线无法采用这些功能的基线的加速1.6-4.0。代码的链接:https://github.com/graph-com/neighborhood-aware-ware-temporal-network。
translated by 谷歌翻译
最近提出了基于子图的图表学习(SGRL)来应对规范图神经网络(GNNS)遇到的一些基本挑战,并在许多重要的数据科学应用(例如链接,关系和主题预测)中证明了优势。但是,当前的SGRL方法遇到了可伸缩性问题,因为它们需要为每个培训或测试查询提取子图。扩大规范GNN的最新解决方案可能不适用于SGRL。在这里,我们通过共同设计学习算法及其系统支持,为可扩展的SGRL提出了一种新颖的框架Surel。 Surel采用基于步行的子图表分解,并将步行重新形成子图,从而大大降低了子图提取的冗余并支持并行计算。具有数百万个节点和边缘的六个同质,异质和高阶图的实验证明了Surel的有效性和可扩展性。特别是,与SGRL基线相比,Surel可以实现10 $ \ times $ Quad-Up,具有可比甚至更好的预测性能;与规范GNN相比,Surel可实现50%的预测准确性。
translated by 谷歌翻译
许多现实世界图包含时域信息。时间图神经网络在生成的动态节点嵌入中捕获时间信息以及结构和上下文信息。研究人员表明,这些嵌入在许多不同的任务中实现了最先进的表现。在这项工作中,我们提出了TGL,这是一个用于大规模脱机时间图神经网络训练的统一框架,用户可以使用简单的配置文件组成各种时间图神经网络。 TGL包括五个主要组件,一个临时采样器,一个邮箱,节点内存模块,存储器更新程序和消息传递引擎。我们设计了临时CSR数据结构和平行采样器,以有效地对颞邻邻居进行制作微型批次。我们提出了一种新颖的随机块调度技术,该技术可以减轻大批量训练时过时的节点存储器的问题。为了解决仅在小规模数据集上评估当前TGNN的局限性,我们介绍了两个具有0.2亿和13亿个时间边缘的大型现实世界数据集。我们在四个具有单个GPU的小规模数据集上评估了TGL的性能,以及两个具有多个GPU的大数据集,用于链接预测和节点分类任务。我们将TGL与五种方法的开源代码进行了比较,并表明TGL平均达到13倍的速度可实现相似或更高的精度。与基准相比,我们的时间平行采样器在多核CPU上平均达到173倍加速。在4-GPU机器上,TGL可以在1-10小时内训练一个超过10亿个时间边缘的时期。据我们所知,这是第一项提出了一个关于多个GPU的大规模时间图神经网络培训的一般框架的工作。
translated by 谷歌翻译
链接预测是图形结构数据(例如,社交网络,药物副作用网络等)的基本问题。图形神经网络为此问题提供了强大的解决方案,特别是通过学习封闭目标链接的子图的表示(即节点对)。但是,这些解决方案不能很好地扩展到大图,因为封闭子图的提取和操作在计算上是昂贵的,尤其是对于大图。本文提出了一个可扩展的链接预测解决方案,我们称之为缩放,该解决方案利用稀疏的封闭子图来做出预测。为了提取稀疏的封闭子图,缩放缩放从目标对节点进行多次随机步行,然后在所有访问的节点引起的采样封闭子图上操作。通过利用较小的采样封闭子图,缩放的缩放可以缩放到较大的图形,而在保持高精度的同时,缩小开销要少得多。缩放进一步提供了控制计算开销与准确性之间的权衡的灵活性。通过全面的实验,我们已经证明,缩放可以产生与现有子图表示学习框架报告的同时所报道的,同时计算要求较少的准确性。
translated by 谷歌翻译
时间图代表实体之间的动态关系,并发生在许多现实生活中的应用中,例如社交网络,电子商务,通信,道路网络,生物系统等。他们需要根据其生成建模和表示学习的研究超出与静态图有关的研究。在这项调查中,我们全面回顾了近期针对处理时间图提出的神经时间依赖图表的学习和生成建模方法。最后,我们确定了现有方法的弱点,并讨论了我们最近发表的论文提格的研究建议[24]。
translated by 谷歌翻译
签名的网络使我们能够对双方的关系和互动进行建模,例如朋友/敌人,支持/反对等。这些交互通常在真实数据集中是暂时的,在这些数据集中,节点和边缘会随时间出现。因此,学习签名网络的动态对于有效预测未来联系的符号和强度至关重要。现有的作品模型签名网络或动态网络,但并非都在一起。在这项工作中,我们研究了动态签名的网络,在这些网络中,链接都随时间签名和演变。我们的模型使用内存模块和平衡聚合(因此,名称SEMBA)学习了签名的链接的演变。每个节点都维护两个单独的内存编码,以实现正相互作用和负相互作用。在新边缘的到来时,每个交互节点汇总了此签名的信息,并利用平衡理论。节点嵌入是使用更新的内存生成的,然后将其用于训练多个下游任务,包括链接标志预测和链接权重预测。我们的结果表明,SEMBA的表现优于所有基准,即通过获得AUC增长8%,而FPR降低了50%。关于预测签名权重的任务的结果表明,SEMBA将平方误差降低了9%,同时降低了KL-Divergence对预测签名权重的分布的减少69%。
translated by 谷歌翻译
图形结构化数据通常在自然界中具有动态字符,例如,在许多现实世界中,链接和节点的添加。近年来见证了对这种图形数据进行建模的动态图神经网络所支付的越来越多的注意力,几乎所有现有方法都假设,当建立新的链接时,应通过学习时间动态来传播邻居节点的嵌入。新的信息。但是,这种方法遭受了这样的限制,如果新连接引入的节点包含嘈杂的信息,那么将其知识传播到其他节点是不可靠的,甚至导致模型崩溃。在本文中,我们提出了Adanet:通过增强动态图神经网络的强化知识适应框架。与以前的方法相反,一旦添加了新链接,就立即更新邻居节点的嵌入方式,Adanet试图自适应地确定由于涉及的新链接而应更新哪些节点。考虑到是否更新一个邻居节点的嵌入的决定将对其他邻居节点产生很大的影响,因此,我们将节点更新的选择作为序列决策问题,并通过强化学习解决此问题。通过这种方式,我们可以将知识自适应地传播到其他节点,以学习健壮的节点嵌入表示。据我们所知,我们的方法构成了通过强化学习的动态图神经网络来探索强大知识适应的首次尝试。在三个基准数据集上进行的广泛实验表明,Adanet可以实现最新的性能。此外,我们通过在数据集中添加不同程度的噪声来执行实验,并定量和定性地说明ADANET的鲁棒性。
translated by 谷歌翻译
数据处理的最新进展刺激了对非常大尺度的学习图的需求。众所周知,图形神经网络(GNN)是解决图形学习任务的一种新兴和有力的方法,很难扩大规模。大多数可扩展模型应用基于节点的技术来简化GNN的昂贵图形消息传播过程。但是,我们发现当应用于百万甚至数十亿尺度的图表时,这种加速度不足。在这项工作中,我们提出了Scara,这是一种可扩展的GNN,具有针对图形计算的特征优化。 Scara有效地计算出从节点功能中嵌入的图形,并进一步选择和重用功能计算结果以减少开销。理论分析表明,我们的模型在传播过程以及GNN培训和推理中具有确保精度,实现了子线性时间的复杂性。我们在各种数据集上进行了广泛的实验,以评估圣aca的功效和效率。与基线的性能比较表明,与快速收敛和可比精度相比,与当前的最新方法相比,圣aca最高可达到100倍的图形传播加速度。最值得注意的是,在100秒内处理最大的十亿个GNN数据集纸100m(1.11亿节点,1.6B边缘)上的预先计算是有效的。
translated by 谷歌翻译
许多实际关系系统,如社交网络和生物系统,包含动态相互作用。在学习动态图形表示时,必须采用连续的时间信息和几何结构。主流工作通过消息传递网络(例如,GCN,GAT)实现拓扑嵌入。另一方面,时间演进通常通过在栅极机构中具有方便信息过滤的存储单元(例如,LSTM或GU)来表达。但是,由于过度复杂的编码,这种设计可以防止大规模的输入序列。这项工作从自我关注的哲学中学习,并提出了一种高效的基于频谱的神经单元,采用信息的远程时间交互。发达的频谱窗口单元(SWINIT)模型预测了具有保证效率的可扩展动态图形。该架构与一些构成随机SVD,MLP和图形帧卷积的一些简单的有效计算块组装。 SVD加MLP模块编码动态图事件的长期特征演进。帧卷积中的快速帧图形变换嵌入了结构动态。两种策略都提高了模型对可扩展分析的能力。特别地,迭代的SVD近似度将注意力的计算复杂性缩小到具有n个边缘和D边缘特征的动态图形的关注的计算复杂性,并且帧卷积的多尺度变换允许在网络训练中具有足够的可扩展性。我们的Swinit在各种在线连续时间动态图表学习任务中实现了最先进的性能,而与基线方法相比,可学习参数的数量可达七倍。
translated by 谷歌翻译
最近从静态图中学习了最近的成功,但是尽管存在普遍存在,但从时间不断发展的图表中学习仍然具有挑战性。我们为特定于动态图的链接预测设计了新的,更严格的评估程序,这些预测反映了现实世界的考虑,并且可以更好地比较不同的方法的优势和劣势。特别是,我们创建了两种可视化技术,以了解随着时间的推移的重复图案。他们表明,以后的时间步骤重复了许多边缘。因此,我们提出了一个称为EdgeBank的纯记忆基线。它在多个设置中实现了令人惊讶的强劲性能,部分原因是当前评估设置中使用的简单负面边缘。因此,我们引入了另外两种具有挑战性的负面抽样策略,可以改善鲁棒性,并可以更好地匹配现实世界的应用程序。最后,我们从当前基准中缺少各种域中介绍了五个新的动态图数据集,从而为未来的研究提供了新的挑战和机会。
translated by 谷歌翻译
链接预测旨在推断网络/图中的一对节点对之间的链接存在。尽管应用了广泛的应用,但传统链接预测算法的成功受到了三个主要挑战(链接稀疏,节点属性噪声和动态变化)的影响,这些挑战受到许多现实世界网络所面临的。为了应对这些挑战,我们提出了一个上下文化的自我监督学习(CSSL)框架,该框架充分利用了链接预测的结构上下文预测。提出的CSSL框架学习了一个链接编码器,以从配对的节点嵌入中推断链接存在概率,这些嵌入是通过节点属性上的转换构建的。为了生成链接预测的信息节点嵌入,结构上下文预测被用作自我监督的学习任务,以提高链接预测性能。研究了两种类型的结构上下文,即从随机步行和上下文子图收集的上下文节点。 CSSL框架可以以端到端的方式进行训练,并通过通过链接预测和自我监督的学习任务来监督模型参数的学习。提出的CSSL是一个通用且灵活的框架,因为它可以同时处理属性和非属性网络,并且在跨性和归纳性链接预测设置下进行操作。对七个现实世界基准网络进行的广泛实验和消融研究表明,在转化和归纳性环境下,在不同类型的网络上,提出的基于自学的链接链路预测算法优于最先进的基线。拟议的CSSL还可以从大规模网络上的节点属性噪声和可扩展性方面产生竞争性能。
translated by 谷歌翻译
动态图形表示学习是具有广泛应用程序的重要任务。以前关于动态图形学习的方法通常对嘈杂的图形信息(如缺失或虚假连接)敏感,可以产生退化的性能和泛化。为了克服这一挑战,我们提出了一种基于变换器的动态图表学习方法,命名为动态图形变换器(DGT),带有空间 - 时间编码,以有效地学习图形拓扑并捕获隐式链接。为了提高泛化能力,我们介绍了两个补充自我监督的预训练任务,并表明共同优化了两种预训练任务,通过信息理论分析导致较小的贝叶斯错误率。我们还提出了一个时间联盟图形结构和目标 - 上下文节点采样策略,用于高效和可扩展的培训。与现实世界数据集的广泛实验说明了与几个最先进的基线相比,DGT呈现出优异的性能。
translated by 谷歌翻译
Recent years have witnessed the emerging success of graph neural networks (GNNs) for modeling structured data. However, most GNNs are designed for homogeneous graphs, in which all nodes and edges belong to the same types, making them infeasible to represent heterogeneous structures. In this paper, we present the Heterogeneous Graph Transformer (HGT) architecture for modeling Web-scale heterogeneous graphs. To model heterogeneity, we design node-and edge-type dependent parameters to characterize the heterogeneous attention over each edge, empowering HGT to maintain dedicated representations for different types of nodes and edges. To handle dynamic heterogeneous graphs, we introduce the relative temporal encoding technique into HGT, which is able to capture the dynamic structural dependency with arbitrary durations. To handle Web-scale graph data, we design the heterogeneous mini-batch graph sampling algorithm-HGSampling-for efficient and scalable training. Extensive experiments on the Open Academic Graph of 179 million nodes and 2 billion edges show that the proposed HGT model consistently outperforms all the state-of-the-art GNN baselines by 9%-21% on various downstream tasks. The dataset and source code of HGT are publicly available at https://github.com/acbull/pyHGT.
translated by 谷歌翻译
图神经网络(GNN)已成功应用于许多真实世界静态图。但是,由于模型设计,评估设置和训练策略的局限性,静态图的成功尚未完全转化为动态图。具体而言,现有的动态GNN并不包含静态GNN的最新设计,从而限制了其性能。动态GNN的当前评估设置不能完全反映动态图的不断发展的性质。最后,用于动态GNN的常用训练方法是不可扩展的。在这里,我们提出了Roland,这是现实世界动态图的有效图表学习框架。 Roland框架的核心可以帮助研究人员轻松地将任何静态GNN重新用于动态图。我们的见解是将不同GNN层的节点嵌入视为分层节点状态,然后随着时间的推移将其反复更新。然后,我们为动态图引入了实时更高的评估设置,该设置模仿了现实世界中的用例,其中GNN正在做出预测并在滚动基础上进行更新。最后,我们通过增量训练和元学习提出了一种可扩展有效的训练方法,以动态GNN。我们在未来链接预测任务上对八个不同的动态图数据集进行了实验。在三个数据集的标准评估设置下,使用Roland框架建立的模型平均相对平均互惠等级(MRR)的平均相对平均值(MRR)改进。我们发现对较大数据集的最先进的基线经历了不可存储的错误,而Roland可以轻松地扩展到5600万个边缘的动态图。在使用ROLAND训练策略重新实现这些基准线后,Roland模型平均相对于基线相对相对改善了15.5%。
translated by 谷歌翻译
Graph neural networks (GNNs) have received remarkable success in link prediction (GNNLP) tasks. Existing efforts first predefine the subgraph for the whole dataset and then apply GNNs to encode edge representations by leveraging the neighborhood structure induced by the fixed subgraph. The prominence of GNNLP methods significantly relies on the adhoc subgraph. Since node connectivity in real-world graphs is complex, one shared subgraph is limited for all edges. Thus, the choices of subgraphs should be personalized to different edges. However, performing personalized subgraph selection is nontrivial since the potential selection space grows exponentially to the scale of edges. Besides, the inference edges are not available during training in link prediction scenarios, so the selection process needs to be inductive. To bridge the gap, we introduce a Personalized Subgraph Selector (PS2) as a plug-and-play framework to automatically, personally, and inductively identify optimal subgraphs for different edges when performing GNNLP. PS2 is instantiated as a bi-level optimization problem that can be efficiently solved differently. Coupling GNNLP models with PS2, we suggest a brand-new angle towards GNNLP training: by first identifying the optimal subgraphs for edges; and then focusing on training the inference model by using the sampled subgraphs. Comprehensive experiments endorse the effectiveness of our proposed method across various GNNLP backbones (GCN, GraphSage, NGCF, LightGCN, and SEAL) and diverse benchmarks (Planetoid, OGB, and Recommendation datasets). Our code is publicly available at \url{https://github.com/qiaoyu-tan/PS2}
translated by 谷歌翻译
静态图形神经网络已广泛用于图形结构数据的建模和表示学习。但是,许多现实世界问题,例如社交网络,金融交易,推荐系统等,是动态的,即节点和边缘随时间添加或删除。因此,近年来,动态图形神经网络从研究人员收到了越来越多的关注。在这项工作中,我们提出了一种新颖的动态图形神经网络,高效。它自适应地将时间信息与等量的时间拓扑结构相等地编码成一系列贴片。因此,在避免使用快照来引起信息丢失的同时,它还实现了更精细的时间粒度,这接近连续网络可以提供的。此外,我们还设计了一种轻量级模块,稀疏的时间变压器,通过结构街区和时间动态来计算节点表示。由于简化了完全连接的注意力,因此计算成本远低于当前最先进的。链路预测实验在连续和离散图数据集中进行。通过比较嵌入基线的几个最先进的图表,实验结果表明,效率达到了竞争性能的推理速度更快。
translated by 谷歌翻译
图表表示学习是一种快速增长的领域,其中一个主要目标是在低维空间中产生有意义的图形表示。已经成功地应用了学习的嵌入式来执行各种预测任务,例如链路预测,节点分类,群集和可视化。图表社区的集体努力提供了数百种方法,但在所有评估指标下没有单一方法擅长,例如预测准确性,运行时间,可扩展性等。该调查旨在通过考虑算法来评估嵌入方法的所有主要类别的图表变体,参数选择,可伸缩性,硬件和软件平台,下游ML任务和多样化数据集。我们使用包含手动特征工程,矩阵分解,浅神经网络和深图卷积网络的分类法组织了图形嵌入技术。我们使用广泛使用的基准图表评估了节点分类,链路预测,群集和可视化任务的这些类别算法。我们在Pytorch几何和DGL库上设计了我们的实验,并在不同的多核CPU和GPU平台上运行实验。我们严格地审查了各种性能指标下嵌入方法的性能,并总结了结果。因此,本文可以作为比较指南,以帮助用户选择最适合其任务的方法。
translated by 谷歌翻译
图形神经网络(GNN)在许多基于图的学​​习任务中表现出很大的优势,但通常无法准确预测基于任务的节点集,例如链接/主题预测等。最近,许多作品通过使用随机节点功能或节点距离特征来解决此问题。但是,它们的收敛速度缓慢,预测不准确或高复杂性。在这项工作中,我们重新访问允许使用位置编码(PE)技术(例如Laplacian eigenmap,deepwalk等)的节点的位置特征。 。在这里,我们以原则性的方式研究了这些问题,并提出了一种可证明的解决方案,这是一类用严格数学分析的钉子的GNN层。 PEG使用单独的频道来更新原始节点功能和位置功能。 PEG施加置换量比W.R.T.原始节点功能并施加$ O(P)$(正交组)均值W.R.T.位置特征同时特征,其中$ p $是二手位置特征的维度。在8个现实世界网络上进行的广泛链接预测实验证明了PEG在概括和可伸缩性方面的优势。
translated by 谷歌翻译
在本文中,我们提供了一种使用图形神经网络(GNNS)的理论,用于多节点表示学习(我们有兴趣学习一组多个节点的表示)。我们知道GNN旨在学习单节点表示。当我们想学习涉及多个节点的节点集表示时,先前作品中的常见做法是直接将GNN学习的多节点表示与节点集的关节表示。在本文中,我们显示了这种方法的基本限制,即无法捕获节点集中节点之间的依赖性,并且认为直接聚合各个节点表示不会导致多个节点的有效关节表示。然后,我们注意到,以前的一些成功的工作作品用于多节点表示学习,包括密封,距离编码和ID-GNN,所有使用的节点标记。这些方法根据应用GNN之前的与目标节点集的关系,首先标记图中的节点。然后,在标记的图表中获得的节点表示被聚合到节点集表示中。通过调查其内部机制,我们将这些节点标记技术统一到单个和最基本的形式,即标记技巧。我们证明,通过标记技巧,可以获得足够富有表现力的GNN学习最具表现力的节点集表示,因此原则上可以解决节点集的任何联合学习任务。关于一个重要的双节点表示学习任务,链接预测,验证了我们理论的实验。我们的工作建立了使用GNN在节点集上使用GNN进行联合预测任务的理论基础。
translated by 谷歌翻译
包括传统浅层模型和深图神经网络(GNN)在内的图形嵌入方法已导致有希望的应用。然而,由于其优化范式,浅层模型尤其是基于随机步行的算法无法充分利用采样子图或序列中的邻居接近度。基于GNN的算法遇到了高阶信息的利用不足,在堆叠过多的层时很容易引起过度平滑的问题,这可能会恶化低度(长尾)项目的建议,从而限制了表现力和可伸缩性。在本文中,我们提出了一个新颖的框架SAC,即空间自动回归编码,以统一的方式解决上述问题。为了充分利用邻居接近和高级信息,我们设计了一种新型的空间自回旋范式。具体而言,我们首先随机掩盖了多跳的邻居,并通过以明确的多跳上注意来整合所有其他周围的邻居来嵌入目标节点。然后,我们加强模型,通过对比编码和蒙面邻居的嵌入来学习目标节点的邻居预测性编码,并配备了新的硬性阴性采样策略。为了了解目标到邻居预测任务的最小足够表示并删除邻居的冗余,我们通过最大化目标预测性编码和蒙面邻居的嵌入以及同时约束编码之间的相互信息来设计邻居信息瓶颈和周围的邻居的嵌入。公共推荐数据集和实际方案网络规模数据集Douyin-Friend-Recormendation的实验结果证明了SAC的优势与最先进的方法相比。
translated by 谷歌翻译