近年来,由于图表代表学习的出色表现,图形神经网络(GNN)技术在许多真实情景中获得了相当大的兴趣,例如推荐系统和社交网络。在推荐系统中,主要挑战是从其互动中学习有效的用户/项目表示。但是,由于它们对数据集和评估度量的差异,比较使用GNNS用于推荐系统的GNN的许多出版物。此外,其中许多只提供了一个演示,以对小型数据集进行实验,这很远可在现实世界推荐系统中应用。为了解决这个问题,我们介绍了Graph4Rec,这是一个Universal Toolkit,它统一地将GNN模型培训到以下部分:图表输入,随机步行生成,自我图形生成,对生成和GNNS选择。从这个训练管道,可以通过一些配置轻松建立自己的GNN模型。此外,我们开发了一个大规模的图形引擎和参数服务器,以支持分布式GNN培训。我们进行系统和全面的实验,以比较不同GNN模型在不同规模中的若干场景中的性能。证明了广泛的实验以识别GNN的关键组分。我们还尝试弄清楚稀疏和密集的参数如何影响GNN的性能。最后,我们研究了包括负面采样,自我图形建设顺序和温暖开始策略的方法,以找到更有效和高效的GNNS在推荐系统上做法。我们的工具包基于PGL HTTPS://github.com/paddlePaddle/pgl,并且在https://github.com/paddlepaddle/pgl/tree/main/apps/graph4rec中打开代码。
translated by 谷歌翻译
包括传统浅层模型和深图神经网络(GNN)在内的图形嵌入方法已导致有希望的应用。然而,由于其优化范式,浅层模型尤其是基于随机步行的算法无法充分利用采样子图或序列中的邻居接近度。基于GNN的算法遇到了高阶信息的利用不足,在堆叠过多的层时很容易引起过度平滑的问题,这可能会恶化低度(长尾)项目的建议,从而限制了表现力和可伸缩性。在本文中,我们提出了一个新颖的框架SAC,即空间自动回归编码,以统一的方式解决上述问题。为了充分利用邻居接近和高级信息,我们设计了一种新型的空间自回旋范式。具体而言,我们首先随机掩盖了多跳的邻居,并通过以明确的多跳上注意来整合所有其他周围的邻居来嵌入目标节点。然后,我们加强模型,通过对比编码和蒙面邻居的嵌入来学习目标节点的邻居预测性编码,并配备了新的硬性阴性采样策略。为了了解目标到邻居预测任务的最小足够表示并删除邻居的冗余,我们通过最大化目标预测性编码和蒙面邻居的嵌入以及同时约束编码之间的相互信息来设计邻居信息瓶颈和周围的邻居的嵌入。公共推荐数据集和实际方案网络规模数据集Douyin-Friend-Recormendation的实验结果证明了SAC的优势与最先进的方法相比。
translated by 谷歌翻译
异质图卷积网络在解决异质网络数据的各种网络分析任务方面已广受欢迎,从链接预测到节点分类。但是,大多数现有作品都忽略了多型节点之间的多重网络的关系异质性,而在元路径中,元素嵌入中关系的重要性不同,这几乎无法捕获不同关系跨不同关系的异质结构信号。为了应对这一挑战,这项工作提出了用于异质网络嵌入的多重异质图卷积网络(MHGCN)。我们的MHGCN可以通过多层卷积聚合自动学习多重异质网络中不同长度的有用的异质元路径相互作用。此外,我们有效地将多相关结构信号和属性语义集成到学习的节点嵌入中,并具有无监督和精选的学习范式。在具有各种网络分析任务的五个现实世界数据集上进行的广泛实验表明,根据所有评估指标,MHGCN与最先进的嵌入基线的优势。
translated by 谷歌翻译
异构信息网络(HIN)捕获各种实体之间的复杂关系,并已广泛用于提高各种数据挖掘任务的有效性,例如在推荐系统中。许多现有的文欣推荐算法利用手工制作的元路径来提取来自网络的语义信息。这些算法依赖于广泛的域知识,可以选择最佳的元路径集。对于HIN与众多节点和链路类型高度复杂的应用程序,手工制作方法的方法太繁琐,并且容易出错。为了解决这个问题,我们提出了基于加强学习的元路径选择(RMS)框架,以选择有效的元路径,并将它们包含在现有的基于元路径的推荐中。为了识别高质量的元路径,RMS列举了基于加强学习(RL)的策略网络(代理),从而从下游推荐任务的性能获取奖励。我们设计一个基于HIN的推荐模型,HREC,有效地使用元路径信息。我们将HREC与RMS进行了整合并导出了我们的推荐解决方案,RMS-HREC,它自动使用有效的元路径。实验对实时数据集表明,我们的算法通过自动捕获重要元路径,可以显着提高推荐模型的性能。
translated by 谷歌翻译
图表神经网络(GNNS)已广泛应用于推荐任务,并获得了非常吸引人的性能。然而,大多数基于GNN的推荐方法在实践中遭受数据稀疏问题。同时,预训练技术在减轻了各个领域(如自然语言处理(NLP)和计算机视觉(CV)等域中的数据稀疏而取得了巨大成功。因此,图形预培训具有扩大基于GNN的建议的数据稀疏的巨大潜力。但是,预先培训GNN,建议面临独特的挑战。例如,不同推荐任务中的用户项交互图具有不同的用户和项目集,并且它们通常存在不同的属性。因此,在NLP和CV中常用的成功机制将知识从预训练任务转移到下游任务,例如共享所学习的嵌入式或特征提取器,而不是直接适用于现有的基于GNN的推荐模型。为了解决这些挑战,我们精致地设计了一个自适应图形预训练框架,用于本地化协作滤波(适应)。它不需要传输用户/项目嵌入式,并且能够跨越不同图的共同知识和每个图形的唯一性。广泛的实验结果表明了适应的有效性和优越性。
translated by 谷歌翻译
冷启动问题是推荐任务的根本挑战。最近的自我监督学习(SSL)图形神经网络(GNNS)模型,PT-GNN,预先列出GNN模型以重建冷启动嵌入,并为冷启动推荐表示了很大的潜力。然而,由于过平滑的问题,PT-GNN只能捕获多达3阶关系,这不能提供许多有用的辅助信息来描绘目标冷启动用户或项目。此外,嵌入重建任务仅考虑用户和项目的子图内的相关性,同时忽略不同子图之间的相关间。为解决上述挑战,我们提出了一种基于多策略的冷启动推荐(MPT)的预训练方法,它从模型架构和借口任务的角度扩展了PT-GNN,以提高冷启动推荐性能。具体地,在模型架构方面,除了由GNN编码器捕获的用户和项目的短程依赖性之外,我们还引入变压器编码器以捕获远程依赖性。在借口任务方面,除了通过嵌入重建任务考虑用户和项目的相关性,我们还添加了嵌入对比学习任务以捕获用户和项目的相关性。我们在元学习设置下培训GNN和变压器编码,在这些借口任务下,以模拟真实的冷启动方案,使模型轻松迅速,适应新的冷启动用户和项目。三个公共推荐数据集的实验显示了对Vanilla GNN模型的提议MPT模型的优势,预先培训了用户/项目嵌入推断和推荐任务的GNN模型。
translated by 谷歌翻译
近年来,异构图形神经网络(HGNNS)一直在开花,但每个工作所使用的独特数据处理和评估设置会让他们的进步完全了解。在这项工作中,我们通过使用其官方代码,数据集,设置和超参数来展示12个最近的HGNN的系统再现,揭示了关于HGNN的进展的令人惊讶的结果。我们发现,由于设置不当,简单的均匀GNN,例如GCN和GAT在很大程度上低估了。具有适当输入的GAT通常可以匹配或优于各种场景的所有现有HGNN。为了促进稳健和可重复的HGNN研究,我们构建异构图形基准(HGB),由具有三个任务的11个不同数据集组成。 HGB标准化异构图数据分割,特征处理和性能评估的过程。最后,我们介绍了一个简单但非常强大的基线简单 - HGN - 这显着优于HGB上以前的所有模型 - 以加速未来HGNN的进步。
translated by 谷歌翻译
图形神经网络(GNN)已显示为与用户项目交互图建模的协作过滤(CF)的有前途的解决方案。现有基于GNN的推荐系统的关键思想是递归执行沿用户项目交互边缘传递的消息,以完善编码的嵌入。然而,尽管它们有效,但当前的大多数推荐模型都依赖于足够和高质量的培训数据,因此学习的表示形式可以很好地捕获准确的用户偏好。用户行为数据在许多实际建议方案中通常很嘈杂,并且表现出偏斜的分布,这可能会导致基于GNN的模型中的次优表示性能。在本文中,我们提出了SHT,这是一种新颖的自我监视的超盖变压器框架(SHT),该框架(SHT)通过以明确的方式探索全球协作关系来增强用户表示。具体而言,我们首先赋予图形神经CF范式,以通过HyperGraph Transformer网络维护用户和项目之间的全局协作效果。在蒸馏的全球环境中,提出了一个跨视图生成的自我监督学习组件,用于对用户项目交互图的数据增强,以增强推荐系统的鲁棒性。广泛的实验表明,SHT可以显着改善各种最新基线的性能。进一步的消融研究表明,我们的SHT推荐框架在减轻数据稀疏性和噪声问题方面具有出色的表示能力。源代码和评估数据集可在以下网址获得:https://github.com/akaxlh/sht。
translated by 谷歌翻译
图表是一个宇宙数据结构,广泛用于组织现实世界中的数据。像交通网络,社交和学术网络这样的各种实际网络网络可以由图表代表。近年来,目睹了在网络中代表顶点的快速发展,进入低维矢量空间,称为网络表示学习。表示学习可以促进图形数据上的新算法的设计。在本调查中,我们对网络代表学习的当前文献进行了全面审查。现有算法可以分为三组:浅埋模型,异构网络嵌入模型,图形神经网络的模型。我们为每个类别审查最先进的算法,并讨论这些算法之间的基本差异。调查的一个优点是,我们系统地研究了不同类别的算法底层的理论基础,这提供了深入的见解,以更好地了解网络表示学习领域的发展。
translated by 谷歌翻译
建议中的用户项交互可以自然地将其作为用户项二分钟图。鉴于图形表示学习中图形神经网络(GNN)的成功,已提出基于GNN的C方法来推进推荐系统。这些方法通常根据学习的用户和项目嵌入式提出建议。但是,我们发现它们不会在真实建议中表现出很常见的稀疏稀疏用户项目图。因此,在这项工作中,我们介绍了一种新颖的视角,以建立基于GNN的CF方法,了解建议的框架局部图协作滤波(LGCF)。 LGCF的一个关键优势在于它不需要为每个用户和项目学习嵌入,这在稀疏方案中具有挑战性。或者,LGCF旨在将有用的CF信息编码为本地化的图表并基于这些图形提出建议。关于各种数据集的广泛实验验证了LGCF的有效性,尤其是稀疏场景。此外,经验结果表明LGCF为基于嵌入的CF模型提供了互补信息,该模型可用于提高推荐性能。
translated by 谷歌翻译
冷启动是推荐系统中的必要且持久的问题。最先进的解决方案依赖于基于辅助信息的冷启动和现有用户/项目的培训混合模型。这种混合模型将损害现有用户/项目的性能,这可能使这些解决方案不适用于现实世界中的推荐系统,在这些系统中,必须保证现有用户/项目的体验。同时,已证明图形神经网络(GNN)可以有效地进行温暖(非冷淡)建议。但是,从未应用它们来处理用户项目两部分图中的冷启动问题。这是一项具有挑战性但有意义的任务,因为冷启动用户/项目没有链接。此外,设计合适的GNN来进行冷启动建议是不算气的,同时保持现有用户/项目的性能。为了弥合差距,我们提出了一个量身定制的基于GNN的框架(GPATCH),其中包含两个单独但相关的组件。首先,有效的GNN体系结构 - Gwarmer,旨在建模暖用户/物品。其次,我们通过进行冷启动建议来构建相关的补丁网络,以模拟和补丁Gwarmer。基准和大规模商业数据集的实验表明,GPATCH在为现有和冷启动的用户/项目提供建议方面非常出色。
translated by 谷歌翻译
To offer accurate and diverse recommendation services, recent methods use auxiliary information to foster the learning process of user and item representations. Many SOTA methods fuse different sources of information (user, item, knowledge graph, tags, etc.) into a graph and use Graph Neural Networks to introduce the auxiliary information through the message passing paradigm. In this work, we seek an alternative framework that is light and effective through self-supervised learning across different sources of information, particularly for the commonly accessible item tag information. We use a self-supervision signal to pair users with the auxiliary information associated with the items they have interacted with before. To achieve the pairing, we create a proxy training task. For a given item, the model predicts the correct pairing between the representations obtained from the users that have interacted with this item and the assigned tags. This design provides an efficient solution, using the auxiliary information directly to enhance the quality of user and item embeddings. User behavior in recommendation systems is driven by the complex interactions of many factors behind the decision-making processes. To make the pairing process more fine-grained and avoid embedding collapse, we propose an intent-aware self-supervised pairing process where we split the user embeddings into multiple sub-embedding vectors. Each sub-embedding vector captures a specific user intent via self-supervised alignment with a particular cluster of tags. We integrate our designed framework with various recommendation models, demonstrating its flexibility and compatibility. Through comparison with numerous SOTA methods on seven real-world datasets, we show that our method can achieve better performance while requiring less training time. This indicates the potential of applying our approach on web-scale datasets.
translated by 谷歌翻译
Recent advancements in deep neural networks for graph-structured data have led to state-of-the-art performance on recommender system benchmarks. However, making these methods practical and scalable to web-scale recommendation tasks with billions of items and hundreds of millions of users remains a challenge.Here we describe a large-scale deep recommendation engine that we developed and deployed at Pinterest. We develop a dataefficient Graph Convolutional Network (GCN) algorithm PinSage, which combines efficient random walks and graph convolutions to generate embeddings of nodes (i.e., items) that incorporate both graph structure as well as node feature information. Compared to prior GCN approaches, we develop a novel method based on highly efficient random walks to structure the convolutions and design a novel training strategy that relies on harder-and-harder training examples to improve robustness and convergence of the model.We deploy PinSage at Pinterest and train it on 7.5 billion examples on a graph with 3 billion nodes representing pins and boards, and 18 billion edges. According to offline metrics, user studies and A/B tests, PinSage generates higher-quality recommendations than comparable deep learning and graph-based alternatives. To our knowledge, this is the largest application of deep graph embeddings to date and paves the way for a new generation of web-scale recommender systems based on graph convolutional architectures.
translated by 谷歌翻译
图形神经网络(GNN)已通过隐式捕获协作效应的消息通知成功地采用了推荐系统。然而,大多数现有的推荐消息机制是直接从GNN继承的,而无需仔细检查捕获的协作效果是否会受益于用户偏好的预测。在本文中,我们首先分析了消息传播如何捕获协作效应,并提出了面向建议的拓扑指标,共同的相互作用比率(CIR),该比例(CIR)衡量了节点的特定邻居与其其余邻居之间的相互作用水平。在证明了利用邻居与高级CIR合作的好处之后,我们提出了一项推荐销售的GNN,协作意识图形卷积网络(CAGCN),它超出了1-Weisfeiler-Lehman(1-WL)测试,以区分非优质 - 图形图形。六个基准数据集的实验表明,最佳CAGCN变体的表现优于最具代表性的基于GNN的建议模型LightGCN,在Recess@20中的近10%,并且达到了80 \%的加速。我们的代码可在https://github.com/yuwvandy/cagcn上公开获取。
translated by 谷歌翻译
推荐系统预测用户在项目中的潜在兴趣,其中核心是学习用户/项目嵌入品。然而,它遭受了数据稀疏问题,跨域推荐可以缓解。但是,大多数事先有效共同学习源域和目标域模型,或者需要侧面特征。然而,由于学习的嵌入由包含偏置信息的源域主导,共同训练和侧面特征将影响目标域上的预测。受到当代艺术在图形表示学习的预训练中的启发,我们提出了一种用于跨域推荐的预先训练和微调图。我们设计了一种用于跨域推荐(PCREC)的新型预训练图神经网络,其采用了图形编码器的对比自我监督的预训练。然后,我们传输预先训练的图形编码器以初始化目标域上的节点嵌入,这有益于目标域上的单个域推荐系统的微调。实验结果表明了PCRec的优越性。详细分析验证了PCRec在传输信息中的优越性,同时避免来自源域的偏差。
translated by 谷歌翻译
知识图表通常掺入到推荐系统,以提高整体性能。由于知识图的推广和规模,大多数知识的关系是不是目标用户项预测有帮助。要利用知识图在推荐系统捕捉目标具体知识的关系,我们需要提炼知识图,以保留有用的信息和完善的知识来捕捉用户的喜好。为了解决这个问题,我们提出了知识感知条件注意网络(KCAN),这是一个终端到终端的模式纳入知识图形转换为推荐系统。具体来说,我们使用一个知识感知注意传播方式,以获得所述节点表示第一,其捕获用户 - 项目网络和知识图表对全球语义相似度。然后给出一个目标,即用户 - 项对,我们会自动提炼出知识图到基于知识感知关注的具体目标子。随后,通过在应用子有条件的注意力聚集,我们细化知识图,以获得特定目标节点表示。因此,我们可以得到两个表示性和个性化,以实现整体性能。现实世界的数据集实验结果表明,我们对国家的最先进的算法框架的有效性。
translated by 谷歌翻译
Recent years have witnessed the emerging success of graph neural networks (GNNs) for modeling structured data. However, most GNNs are designed for homogeneous graphs, in which all nodes and edges belong to the same types, making them infeasible to represent heterogeneous structures. In this paper, we present the Heterogeneous Graph Transformer (HGT) architecture for modeling Web-scale heterogeneous graphs. To model heterogeneity, we design node-and edge-type dependent parameters to characterize the heterogeneous attention over each edge, empowering HGT to maintain dedicated representations for different types of nodes and edges. To handle dynamic heterogeneous graphs, we introduce the relative temporal encoding technique into HGT, which is able to capture the dynamic structural dependency with arbitrary durations. To handle Web-scale graph data, we design the heterogeneous mini-batch graph sampling algorithm-HGSampling-for efficient and scalable training. Extensive experiments on the Open Academic Graph of 179 million nodes and 2 billion edges show that the proposed HGT model consistently outperforms all the state-of-the-art GNN baselines by 9%-21% on various downstream tasks. The dataset and source code of HGT are publicly available at https://github.com/acbull/pyHGT.
translated by 谷歌翻译
我们研究推荐项目到偶尔群体的问题(A.K.A.冷启动群体),偶尔群体形成ad-hoc,并且有很少或没有历史互动的物品。由于偶尔群体的极端稀疏问题,偶尔与物品的互动,很难为这些偶尔群体学习高质量的嵌入。尽管图表神经网络(GNN)的最近进步包括高阶协作信号来缓解问题,但在GNN的图表卷积期间未明确考虑高阶冷启动邻居。本文提出了一个自我监督的图表学习范式,该图解范例共同列举了骨干GNN模型来重建元学习环境下的群体/用户/项目嵌入,使得它可以直接提高嵌入质量,并且可以轻松调整新偶尔群体。为了进一步减少来自冷启动邻居的影响,我们纳入了一种基于自我关注的元聚合器,以增强每个图卷积步骤的聚合能力。此外,我们添加了对比学习(CL)适配器,明确地考虑组和非组成员之间的相关性。三个公共推荐数据集的实验结果表明我们拟议模型的优势,以防止最先进的集团推荐方法。
translated by 谷歌翻译
Graph Neural Networks (GNNs) have attracted increasing attention in recent years and have achieved excellent performance in semi-supervised node classification tasks. The success of most GNNs relies on one fundamental assumption, i.e., the original graph structure data is available. However, recent studies have shown that GNNs are vulnerable to the complex underlying structure of the graph, making it necessary to learn comprehensive and robust graph structures for downstream tasks, rather than relying only on the raw graph structure. In light of this, we seek to learn optimal graph structures for downstream tasks and propose a novel framework for semi-supervised classification. Specifically, based on the structural context information of graph and node representations, we encode the complex interactions in semantics and generate semantic graphs to preserve the global structure. Moreover, we develop a novel multi-measure attention layer to optimize the similarity rather than prescribing it a priori, so that the similarity can be adaptively evaluated by integrating measures. These graphs are fused and optimized together with GNN towards semi-supervised classification objective. Extensive experiments and ablation studies on six real-world datasets clearly demonstrate the effectiveness of our proposed model and the contribution of each component.
translated by 谷歌翻译
图表表示学习是一种快速增长的领域,其中一个主要目标是在低维空间中产生有意义的图形表示。已经成功地应用了学习的嵌入式来执行各种预测任务,例如链路预测,节点分类,群集和可视化。图表社区的集体努力提供了数百种方法,但在所有评估指标下没有单一方法擅长,例如预测准确性,运行时间,可扩展性等。该调查旨在通过考虑算法来评估嵌入方法的所有主要类别的图表变体,参数选择,可伸缩性,硬件和软件平台,下游ML任务和多样化数据集。我们使用包含手动特征工程,矩阵分解,浅神经网络和深图卷积网络的分类法组织了图形嵌入技术。我们使用广泛使用的基准图表评估了节点分类,链路预测,群集和可视化任务的这些类别算法。我们在Pytorch几何和DGL库上设计了我们的实验,并在不同的多核CPU和GPU平台上运行实验。我们严格地审查了各种性能指标下嵌入方法的性能,并总结了结果。因此,本文可以作为比较指南,以帮助用户选择最适合其任务的方法。
translated by 谷歌翻译