图形神经网络(GNN)是旨在处理图表上图和信号的学习模型。最受欢迎,最成功的GNN是基于消息传递方案的基础。在区分两个非同构图时,这种方案固有地具有有限的表达能力。在本文中,我们依靠覆盖空间的理论来充分表征GNN无法区分的图形类别。然后,我们生成任意生成许多无法通过GNN来区分的非同构图,导致GraphCovers数据集。我们还表明,数据集中没有可区分的图的数量随节点的数量增长。最后,我们在几个GNN体系结构上测试GraphCovers数据集,表明它们都无法区分其包含的任何两个图。
translated by 谷歌翻译
尽管(消息通话)图形神经网络在图形或一般关系数据上近似置换量等函数方面具有明显的局限性,但更具表现力的高阶图神经网络不会扩展到大图。他们要么在$ k $ - 订单张量子上操作,要么考虑所有$ k $ - 节点子图,这意味着在内存需求中对$ k $的指数依赖,并且不适合图形的稀疏性。通过为图同构问题引入新的启发式方法,我们设计了一类通用的,置换式的图形网络,与以前的体系结构不同,该网络在表达性和可伸缩性之间提供了细粒度的控制,并适应了图的稀疏性。这些体系结构与监督节点和图形级别的标准高阶网络以及回归体系中的标准高阶图网络相比大大减少了计算时间,同时在预测性能方面显着改善了标准图神经网络和图形内核体系结构。
translated by 谷歌翻译
消息传递神经网络(MPNNS)是由于其简单性和可扩展性而大部分地进行图形结构数据的深度学习的领先架构。不幸的是,有人认为这些架构的表现力有限。本文提出了一种名为Comifariant Subgraph聚合网络(ESAN)的新颖框架来解决这个问题。我们的主要观察是,虽然两个图可能无法通过MPNN可区分,但它们通常包含可区分的子图。因此,我们建议将每个图形作为由某些预定义策略导出的一组子图,并使用合适的等分性架构来处理它。我们为图同构同构同构造的1立维Weisfeiler-Leman(1-WL)测试的新型变体,并在这些新的WL变体方面证明了ESAN的表达性下限。我们进一步证明,我们的方法增加了MPNNS和更具表现力的架构的表现力。此外,我们提供了理论结果,描述了设计选择诸如子图选择政策和等效性神经结构的设计方式如何影响我们的架构的表现力。要处理增加的计算成本,我们提出了一种子图采样方案,可以将其视为我们框架的随机版本。关于真实和合成数据集的一套全面的实验表明,我们的框架提高了流行的GNN架构的表现力和整体性能。
translated by 谷歌翻译
最近出现了许多子图增强图神经网络(GNN),可证明增强了标准(消息通话)GNN的表达能力。但是,对这些方法之间的相互关系和weisfeiler层次结构的关系有限。此外,当前的方法要么使用给定尺寸的所有子图,要随机均匀地对其进行采样,或者使用手工制作的启发式方法,而不是学习以数据驱动的方式选择子图。在这里,我们提供了一种统一的方法来研究此类体系结构,通过引入理论框架并扩展了亚图增强GNN的已知表达结果。具体而言,我们表明,增加子图的大小总是会增加表达能力,并通过将它们与已建立的$ k \ text { - } \ Mathsf {Wl} $ hierArchy联系起来,从而更好地理解其局限性。此外,我们还使用最近通过复杂的离散概率分布进行反向传播的方法探索了学习对子图进行采样的不同方法。从经验上讲,我们研究了不同子图增强的GNN的预测性能,表明我们的数据驱动体系结构与非DATA驱动的亚图增强图形神经网络相比,在标准基准数据集上提高了对标准基准数据集的预测准确性,同时减少了计算时间。
translated by 谷歌翻译
图形神经网络(GNNS)是图形处理的广泛连接主义模型。它们对每个节点及其邻居进行迭代消息传递操作,以解决分类/群集任务 - 在某些节点或整个图表上 - 无论其订单如何,都会收集所有此类消息。尽管属于该类的各种模型之间的差异,但大多数基于本地聚合机制和直观地采用相同的计算方案,并直观地,本地计算框架主要负责GNN的表现力。在本文中,我们证明了Weisfeiler - Lehman测试在恰好对应于原始GNN模型上定义的展开等价的图表节点上引起了等效关系。因此,原始GNN的表现力的结果可以扩展到一般GNN,其在​​温和条件下可以证明能够以概率和最高的任何精度近似于朝向展开等价的图表中的任何功能。
translated by 谷歌翻译
图形神经网络(GNNS)具有有限的表现力量,无法正确代表许多图形类。虽然更具表现力的图表表示学习(GRL)替代方案可以区分其中一些类,但它们明显难以实现,可能不会很好地扩展,并且尚未显示在现实世界任务中优于经过良好调整的GNN。因此,设计简单,可扩展和表现力的GRL架构,也实现了现实世界的改进仍然是一个开放的挑战。在这项工作中,我们展示了图形重建的程度 - 从其子图重建图形 - 可以减轻GRL架构目前面临的理论和实际问题。首先,我们利用图形重建来构建两个新的表达图表表示。其次,我们展示了图形重建如何提升任何GNN架构的表现力,同时是一个(可证明的)强大的归纳偏见,用于侵略性的侵略性。凭经验,我们展示了重建如何提高GNN的表现力 - 同时保持其与顶点的排列的不变性 - 通过解决原始GNN的七个图形属性任务而无法解决。此外,我们展示了如何在九世界基准数据集中提升最先进的GNN性能。
translated by 谷歌翻译
图表学习方法的理论分析通常假设输入图的完全观察。由于实践中的可扩展性问题,这种假设可能对处理任何大小的图表都不有用。在这项工作中,我们在部分观察设置中开发了图形分类问题的理论框架(即,子图采样)。在图形限制理论中配备了洞察力,我们提出了一种新的图形分类模型,用于在随机采样的子图和新颖的拓扑上工作,以表征模型的可颂扬性。我们的理论框架在图形上提供了迷你批量学习的理论验证,并导致新的学习 - 理论上的泛化界限以及尺寸概括地,而不是输入的假设。
translated by 谷歌翻译
图形神经网络(GNNS)是关于图形机器学习问题的深度学习架构。最近已经表明,GNN的富有效力可以精确地由组合Weisfeiler-Leman算法和有限可变计数逻辑来表征。该对应关系甚至导致了对应于更高维度的WL算法的新的高阶GNN。本文的目的是解释GNN的这些描述性特征。
translated by 谷歌翻译
近年来,基于Weisfeiler-Leman算法的算法和神经架构,是一个众所周知的Graph同构问题的启发式问题,它成为具有图形和关系数据的机器学习的强大工具。在这里,我们全面概述了机器学习设置中的算法的使用,专注于监督的制度。我们讨论了理论背景,展示了如何将其用于监督的图形和节点表示学习,讨论最近的扩展,并概述算法的连接(置换 - )方面的神经结构。此外,我们概述了当前的应用和未来方向,以刺激进一步的研究。
translated by 谷歌翻译
Recent work shows that the expressive power of Graph Neural Networks (GNNs) in distinguishing non-isomorphic graphs is exactly the same as that of the Weisfeiler-Lehman (WL) graph test. In particular, they show that the WL test can be simulated by GNNs. However, those simulations involve neural networks for the 'combine' function of size polynomial or even exponential in the number of graph nodes $n$, as well as feature vectors of length linear in $n$. We present an improved simulation of the WL test on GNNs with \emph{exponentially} lower complexity. In particular, the neural network implementing the combine function in each node has only a polylogarithmic number of parameters in $n$, and the feature vectors exchanged by the nodes of GNN consists of only $O(\log n)$ bits. We also give logarithmic lower bounds for the feature vector length and the size of the neural networks, showing the (near)-optimality of our construction.
translated by 谷歌翻译
大多数图形神经网络(GNNS)无法区分某些图形或图中的某些节点。这使得无法解决某些分类任务。但是,在这些模型中添加其他节点功能可以解决此问题。我们介绍了几种这样的增强,包括(i)位置节点嵌入,(ii)规范节点ID和(iii)随机特征。这些扩展是由理论结果激励的,并通过对合成子图检测任务进行广泛测试来证实。我们发现位置嵌入在这些任务中的其他扩展大大超过了其他扩展。此外,位置嵌入具有更好的样品效率,在不同的图形分布上表现良好,甚至超过了地面真实节点位置。最后,我们表明,不同的增强功能在既定的GNN基准中都具有竞争力,并建议何时使用它们。
translated by 谷歌翻译
Knowledge graphs, modeling multi-relational data, improve numerous applications such as question answering or graph logical reasoning. Many graph neural networks for such data emerged recently, often outperforming shallow architectures. However, the design of such multi-relational graph neural networks is ad-hoc, driven mainly by intuition and empirical insights. Up to now, their expressivity, their relation to each other, and their (practical) learning performance is poorly understood. Here, we initiate the study of deriving a more principled understanding of multi-relational graph neural networks. Namely, we investigate the limitations in the expressive power of the well-known Relational GCN and Compositional GCN architectures and shed some light on their practical learning performance. By aligning both architectures with a suitable version of the Weisfeiler-Leman test, we establish under which conditions both models have the same expressive power in distinguishing non-isomorphic (multi-relational) graphs or vertices with different structural roles. Further, by leveraging recent progress in designing expressive graph neural networks, we introduce the $k$-RN architecture that provably overcomes the expressiveness limitations of the above two architectures. Empirically, we confirm our theoretical findings in a vertex classification setting over small and large multi-relational graphs.
translated by 谷歌翻译
消息传递神经网络(MPNNs)是格拉夫神经网络(GNN)的一个常见的类型,其中,每个节点的表示是通过聚集从表示其直接邻居(消息)类似于一个星形图案递归计算。 MPNNs的呼吁是有效的,可扩展的,怎么样,曾经它们的表现是由一阶Weisfeiler雷曼同构测试(1-WL)的上界。对此,之前的作品提出在可扩展性的成本极富表现力的模型,有时泛化性能。我们的工作表示这两个政权:我们介绍抬升任何MPNN更加传神,具有可扩展性有限的开销,大大提高了实用性能的总体框架。我们从星星图案一般的子模式(例如,K-egonets)在MPNNs扩展本地聚合实现这一点:在我们的框架中,每个节点表示被计算为周边诱发子的编码,而不是唯一的近邻编码(即一个明星)。我们选择子编码器是一个GNN(主要是MPNNs,考虑到可扩展性)来设计用作一个包装掀任何GNN的总体框架。我们把我们提出的方法GNN-AK(GNN为核心),作为框架用GNNS更换内核类似于卷积神经网络。从理论上讲,我们表明,我们的框架比1和2-WL确实更强大,并且不超过3-WL那么强大。我们还设计子取样策略,可大大降低内存占用和提高速度的同时保持性能。我们的方法将大利润率多家知名图形ML任务新的国家的最先进的性能;具体地,0.08 MAE锌,74.79%和86.887%的准确度上CIFAR10和分别PATTERN。
translated by 谷歌翻译
我们提出了一个新的图形神经网络,我们称为AgentNet,该网络专为图形级任务而设计。 AgentNet的灵感来自子宫性算法,具有独立于图形大小的计算复杂性。代理Net的体系结构从根本上与已知图神经网络的体系结构不同。在AgentNet中,一些受过训练的\ textit {神经代理}智能地行走图,然后共同决定输出。我们提供了对AgentNet的广泛理论分析:我们表明,代理可以学会系统地探索其邻居,并且AgentNet可以区分某些甚至3-WL无法区分的结构。此外,AgentNet能够将任何两个图形分开,这些图在子图方面完全不同。我们通过在难以辨认的图和现实图形分类任务上进行合成实验来确认这些理论结果。在这两种情况下,我们不仅与标准GNN相比,而且与计算更昂贵的GNN扩展相比。
translated by 谷歌翻译
大多数图形神经网络(GNNS)使用传递范例的消息,其中节点特征在输入图上传播。最近的作品指出,从远处节点流动的信息失真,作为限制依赖于长途交互的任务的消息的效率。这种现象称为“过度挤压”,已经启动到图形瓶颈,其中$ k $ -hop邻居的数量以$ k $迅速增长。我们在GNNS中提供了精确描述了GNNS中的过度挤压现象,并分析了它如何从图中的瓶颈引发。为此目的,我们介绍了一种新的基于边缘的组合曲率,并证明了负曲面负责过度挤压问题。我们还提出并通过实验测试了一种基于曲率的曲线图重新挖掘方法,以减轻过度挤压。
translated by 谷歌翻译
图形神经网络(GNNS)的表现力量受到限制,具有远程交互的斗争,缺乏模拟高阶结构的原则性方法。这些问题可以归因于计算图表和输入图结构之间的强耦合。最近提出的消息通过单独的网络通过执行图形的Clique复合物的消息来自然地解耦这些元素。然而,这些模型可能受到单纯复合物(SCS)的刚性组合结构的严重限制。在这项工作中,我们将最近的基于常规细胞复合物的理论结果扩展到常规细胞复合物,灵活地满满SCS和图表的拓扑物体。我们表明,该概括提供了一组强大的图表“提升”转换,每个图形是导致唯一的分层消息传递过程。我们集体呼叫CW Networks(CWNS)的结果方法比WL测试更强大,而不是比3 WL测试更强大。特别是,当应用于分子图问题时,我们证明了一种基于环的一个这样的方案的有效性。所提出的架构从可提供的较大的表达效益于常用的GNN,高阶信号的原则建模以及压缩节点之间的距离。我们展示了我们的模型在各种分子数据集上实现了最先进的结果。
translated by 谷歌翻译
本文研究了辍学图神经网络(DAVERGNNS),一种旨在克服标准GNN框架的局限性的新方法。在DAMPGNNS中,我们在输入图上执行多个GNN运行,其中一些节点随机且独立地在这些运行中丢弃。然后,我们将这些运行的结果结合起来获得最终结果。我们证明DAMPGNN可以区分无法通过GNN的消息分隔的各种图形邻域。我们导出了确保可靠分布辍学所需的运行数量的理论界限,我们证明了有关DACKGNNS的表现能力和限制的若干特性。我们在实验上验证了我们对表现力的理论结果。此外,我们表明DOWNNNS在已建立的GNN基准上表现得很竞争。
translated by 谷歌翻译
在这项工作中,我们开发了一种新的方法,名为局部排列的图形神经网络,它为建立在本地节点邻域,通过子图形的构建图形神经网络的框架,同时使用置换等值更新功能。消息传递神经网络的消息被认为是有效应功率的限制,并且最近过度的方法缺乏可扩展性或需要将结构信息被编码为特征空间。这里呈现的一般框架克服了通过通过受限制表示在子图上操作的与全局排列等值相关的可扩展性问题。此外,我们证明了通过使用限制的陈述没有丧失表情。此外,所提出的框架仅需要选择$ k $-hops,用于创建用于为每层使用的子图和选择的表示空间,这使得该方法在一系列基于图形的域中可以容易地适用。我们通过实验验证了一系列图形基准分类任务的方法,在所有基准上展示了最先进的结果或非常竞争力的结果。此外,我们证明使用本地更新函数的使用在全球方法上提供了GPU存储器的显着改进。
translated by 谷歌翻译
在本文中,我们提供了一种使用图形神经网络(GNNS)的理论,用于多节点表示学习(我们有兴趣学习一组多个节点的表示)。我们知道GNN旨在学习单节点表示。当我们想学习涉及多个节点的节点集表示时,先前作品中的常见做法是直接将GNN学习的多节点表示与节点集的关节表示。在本文中,我们显示了这种方法的基本限制,即无法捕获节点集中节点之间的依赖性,并且认为直接聚合各个节点表示不会导致多个节点的有效关节表示。然后,我们注意到,以前的一些成功的工作作品用于多节点表示学习,包括密封,距离编码和ID-GNN,所有使用的节点标记。这些方法根据应用GNN之前的与目标节点集的关系,首先标记图中的节点。然后,在标记的图表中获得的节点表示被聚合到节点集表示中。通过调查其内部机制,我们将这些节点标记技术统一到单个和最基本的形式,即标记技巧。我们证明,通过标记技巧,可以获得足够富有表现力的GNN学习最具表现力的节点集表示,因此原则上可以解决节点集的任何联合学习任务。关于一个重要的双节点表示学习任务,链接预测,验证了我们理论的实验。我们的工作建立了使用GNN在节点集上使用GNN进行联合预测任务的理论基础。
translated by 谷歌翻译
在本文中,我们通过图形函数的关键代数条件(称为\ textIt {置换兼容性})完全回答上述问题,该函数将图形和图形的特征​​与功能约束相关联。我们证明:(i)GNN作为图形函数必然是兼容的; (ii)相反,当限制具有不同节点特征的输入图上时,任何置换兼容函数都可以由GNN生成; (iii)对于任意节点特征(不一定是不同),一个简单的功能增强方案足以生成GNN置换兼容函数; (iv)可以通过仅检查二次功能约束,而不是对所有排列的详尽搜索来验证置换兼容性; (v)GNN可以生成\ textIt {any}图形函数,一旦我们以节点身份增强节点特征,从而超越了图同构和置换兼容性。上面的表征铺平了正式研究GNN和其他算法程序之间复杂联系的路径。例如,我们的表征意味着许多自然图问题,例如最小值值,最大流量值,最大值尺寸和最短路径,可以使用简单的功能增强来生成GNN。相比之下,每当GNN无法生成具有相同特征的置换函数时,著名的Weisfeiler-Lehman图形测试就会失败。我们分析的核心是一种新的表示定理,它标识了GNN的基础函数。这使我们能够将目标图函数的属性转化为GNN聚合函数的属性。
translated by 谷歌翻译