Graph Neural Networks (GNNs) have achieved great successes in many learning tasks performed on graph structures. Nonetheless, to propagate information GNNs rely on a message passing scheme which can become prohibitively expensive when working with industrial-scale graphs. Inspired by the PPRGo model, we propose the CorePPR model, a scalable solution that utilises a learnable convex combination of the approximate personalised PageRank and the CoreRank to diffuse multi-hop neighbourhood information in GNNs. Additionally, we incorporate a dynamic mechanism to select the most influential neighbours for a particular node which reduces training time while preserving the performance of the model. Overall, we demonstrate that CorePPR outperforms PPRGo, particularly on large graphs where selecting the most influential nodes is particularly relevant for scalability. Our code is publicly available at: https://github.com/arielramos97/CorePPR.
translated by 谷歌翻译
In recent years, graph neural networks (GNNs) have emerged as a promising tool for solving machine learning problems on graphs. Most GNNs are members of the family of message passing neural networks (MPNNs). There is a close connection between these models and the Weisfeiler-Leman (WL) test of isomorphism, an algorithm that can successfully test isomorphism for a broad class of graphs. Recently, much research has focused on measuring the expressive power of GNNs. For instance, it has been shown that standard MPNNs are at most as powerful as WL in terms of distinguishing non-isomorphic graphs. However, these studies have largely ignored the distances between the representations of nodes/graphs which are of paramount importance for learning tasks. In this paper, we define a distance function between nodes which is based on the hierarchy produced by the WL algorithm, and propose a model that learns representations which preserve those distances between nodes. Since the emerging hierarchy corresponds to a tree, to learn these representations, we capitalize on recent advances in the field of hyperbolic neural networks. We empirically evaluate the proposed model on standard node and graph classification datasets where it achieves competitive performance with state-of-the-art models.
translated by 谷歌翻译
深度学习的最新进展,尤其是编码器架构的发明,已大大改善了抽象性摘要系统的性能。尽管大多数研究都集中在书面文件上,但我们观察到过去几年对对话和多方对话的总结越来越兴趣。一个可以可靠地将人类对话的音频或笔录转换为删节版本的系统,该版本在讨论中最重要的一点上可以在各种现实世界中,从商务会议到医疗咨询再到客户都有价值服务电话。本文着重于多党会议的抽象性摘要,对与此任务相关的挑战,数据集和系统进行了调查,并讨论了未来研究的有希望的方向。
translated by 谷歌翻译
时间序列预测是重要的应用领域的核心,对机器学习算法构成了重大挑战。最近,神经网络体系结构已广泛应用于时间序列的预测问题。这些模型中的大多数都是通过最大程度地减少损失函数来衡量预测偏离实际值的训练的。典型的损耗函数包括均方根误差(MSE)和平均绝对误差(MAE)。在存在噪声和不确定性的情况下,神经网络模型倾向于复制时间序列的最后观察值,从而限制了它们对现实数据的适用性。在本文中,我们提供了上述问题的形式定义,还提供了观察到问题的预测的一些示例。我们还提出了一个正规化项,对先前看到的值的复制进行了惩罚。我们在合成数据集和现实世界数据集上评估了拟议的正规化项。我们的结果表明,正则化项会在一定程度上缓解上述问题,并产生更健壮的模型。
translated by 谷歌翻译
图形神经网络(GNN)已成功用于许多涉及图形结构数据的问题,从而实现了最新的性能。 GNN通常采用消息通话方案,其中每个节点都使用置换不变的聚合函数从其邻居中汇总信息。标准良好的选择(例如平均值或总和函数)具有有限的功能,因为它们无法捕获邻居之间的相互作用。在这项工作中,我们使用信息理论框架正式化了这些交互,该框架特别包括协同信息。在此定义的驱动下,我们介绍了图排序注意(山羊)层,这是一种新型的GNN组件,可捕获邻域中的节点之间的相互作用。这是通过通过注意机制学习局部节点顺序并使用复发性神经网络聚合器来处理订购表示的来实现的。这种设计使我们能够利用置换敏感的聚合器,同时维持所提出的山羊层的排列量表。山羊模型展示了其在捕获复杂信息(例如中心中心性和节点的有效大小)中的建模图指标中提高的性能。在实用用例中,通过在几个现实世界节点分类基准中成功证实了其出色的建模能力。
translated by 谷歌翻译
Graph AutoCododers(GAE)和变分图自动编码器(VGAE)作为链接预测的强大方法出现。他们的表现对社区探测问题的印象不那么令人印象深刻,根据最近和同意的实验评估,它们的表现通常超过了诸如louvain方法之类的简单替代方案。目前尚不清楚可以通过GAE和VGAE改善社区检测的程度,尤其是在没有节点功能的情况下。此外,不确定是否可以在链接预测上同时保留良好的性能。在本文中,我们表明,可以高精度地共同解决这两个任务。为此,我们介绍和理论上研究了一个社区保留的消息传递方案,通过在计算嵌入空间时考虑初始图形结构和基于模块化的先验社区来掺杂我们的GAE和VGAE编码器。我们还提出了新颖的培训和优化策略,包括引入一个模块化的正规器,以补充联合链路预测和社区检测的现有重建损失。我们通过对各种现实世界图的深入实验验证,证明了方法的经验有效性,称为模块化感知的GAE和VGAE。
translated by 谷歌翻译
Dascim(数据科学和采矿)在Ecole Polytechnique的Lix的一部分,于2013年成立,从那时起,通过机器和深度学习方法生产大规模数据分析领域。本集团在NLP领域专门积极活跃,并在方法论和资源水平上具有有趣的结果。在此遵循我们对AFIA社区的不同贡献。
translated by 谷歌翻译
Graph神经网络(GNN)最近已成为使用图的机器学习的主要范式。对GNNS的研究主要集中于消息传递神经网络(MPNNS)的家族。与同构的Weisfeiler-Leman(WL)测试类似,这些模型遵循迭代的邻域聚合过程以更新顶点表示,并通过汇总顶点表示来更新顶点图表。尽管非常成功,但在过去的几年中,对MPNN进行了深入的研究。因此,需要新颖的体系结构,这将使该领域的研究能够脱离MPNN。在本文中,我们提出了一个新的图形神经网络模型,即所谓的$ \ pi $ -gnn,该模型学习了每个图的“软”排列(即双随机)矩阵,从而将所有图形投影到一个共同的矢量空间中。学到的矩阵在输入图的顶点上强加了“软”顺序,并基于此顺序,将邻接矩阵映射到向量中。这些向量可以被送入完全连接或卷积的层,以应对监督的学习任务。在大图的情况下,为了使模型在运行时间和记忆方面更有效,我们进一步放松了双随机矩阵,以使其排列随机矩阵。我们从经验上评估了图形分类和图形回归数据集的模型,并表明它与最新模型达到了性能竞争。
translated by 谷歌翻译
随着组合优化的机器学习领域,通过这种新的视角,传统问题重新敷设和重新进行了折叠。大多数文献中的绝大多数侧重于小的图形问题,而几个真实问题致力于大图。在这里,我们专注于两个这样的问题:影响估计,#p-coll counting问题,以及影响最大化,np-colly问题。我们开发Glie,一个图形神经网络(GNN),其固有地参数化影响估计的上限并在小模拟图上培训。实验表明,Glie为真正的图表提供了精确的影响,该估计比列车集大10倍。更重要的是,它可以用于对大大更大图的影响最大化,因为预测排名不受精度降低的影响。我们使用Glie制定一个Cely Optimization,而不是模拟的影响估计,超越了影响最大化的基准,尽管具有计算开销。为了平衡时间复杂性和影响质量,我们提出了两种不同的方法。第一个是Q-Network,学会使用Glie的预测顺序选择种子。第二种基于Glie的表示在构建种子集的同时,基于Glie的表示来定义一个可怕的子模块功能。后者提供了时间效率和影响的最佳组合,表现优于SOTA基准。
translated by 谷歌翻译
神经网络是人工智能的巅峰之作,因为近年来我们目睹了许多新颖的体系结构,学习和优化技术的深度学习。利用这一事实是,神经网络固有地构成神经元之间的多部分图,我们旨在直接分析其结构,以提取有意义的信息,以改善学习过程。对于我们的知识图挖掘技术,尚未对神经网络中的学习进行增强。在本文中,我们为从深度学习体系结构中提取的完整加权多部分图的K核结构提出了一个改编版本。由于多方图是两分图的组合,而两分图的组合是超图的起点图,因此我们设计了k-hypercore分解,这是k核退化性的超图类似物。我们将K-Hypercore应用于几个神经网络体系结构,更具体地用于卷积神经网络和多层感知,以进行非常短的训练后的图像识别任务。然后,我们使用了由神经元的超核数量提供的信息来重新定位神经网络的权重,从而偏向梯度优化方案。广泛的实验证明,K-Hypercore的表现优于最新初始化方法。
translated by 谷歌翻译