Top-K建议是推荐系统中的一个基本任务,通常通过比较积极和负对对学习。对比损失(CL)是最近受到更多关注的对比学习的关键,我们发现它非常适合Top-K建议。但是,这是一个问题,即CL处理正面和阴性样本的重要性。一方面,CL面向一个正样品的不平衡问题和许多阴性样品。另一方面,稀疏的数据集中很少有稀疏项目应该强调他们的重要性。此外,其他重要问题是稀疏正项目仍然没有充分利用建议。因此,我们通过使用CL损耗功能同时使用多个正项目(或样本)来提出新的数据增强方法。因此,我们提出了一种基于多样的对比损失(MSCL)功能,通过平衡正面和负样本和数据增强的重要性来解决两个问题。基于图表卷积网络(GCN)方法,实验结果表明了MSCL的最先进的性能。所提出的MSCL很简单,可以在许多方法中应用。我们将在验收时发布GitHub上的代码。
translated by 谷歌翻译
与传统的协作过滤方法相比,图表卷积网络可以明确地模拟用户 - 项目二分类图的节点之间的交互,并有效地使用高阶邻居,这使得图形神经网络能够获得更有效的嵌入品以获得推荐,例如推荐作为ngcf和lightgcn。然而,其表示非常易于相互作用的噪音。在响应这个问题时,SGL探讨了用户项目图上的自我监督学习,以提高GCN的鲁棒性。虽然有效,但我们发现SGL直接适用SIMCLR的比较学习框架。此框架可能不会直接适用于推荐系统的场景,并且没有充分考虑用户项交互的不确定性。在这项工作中,我们的目标是考虑充分建议制度的情景中对比学习的应用,使其更适合推荐任务。我们提出了一个监督的对比学习框架来预先列出用户项目二分钟图,然后微调图形卷积神经网络。具体而言,我们将在数据预处理期间比较用户和项目之间的相似性,然后在应用对比学习时,不仅将增强视图视为正样本,而且还将被视为正样品的一定数量的类似样品。 ,这与SIMCLR不同,他们以批量作为阴性样品处理其他样本。我们将这种学习方法术语定期为监督对比学习(SCL)并将其应用于最先进的LightGCN。另外,为了考虑节点交互的不确定性,我们还提出了一种新的数据增强方法,称为节点复制。
translated by 谷歌翻译
Inspired by the impressive success of contrastive learning (CL), a variety of graph augmentation strategies have been employed to learn node representations in a self-supervised manner. Existing methods construct the contrastive samples by adding perturbations to the graph structure or node attributes. Although impressive results are achieved, it is rather blind to the wealth of prior information assumed: with the increase of the perturbation degree applied on the original graph, 1) the similarity between the original graph and the generated augmented graph gradually decreases; 2) the discrimination between all nodes within each augmented view gradually increases. In this paper, we argue that both such prior information can be incorporated (differently) into the contrastive learning paradigm following our general ranking framework. In particular, we first interpret CL as a special case of learning to rank (L2R), which inspires us to leverage the ranking order among positive augmented views. Meanwhile, we introduce a self-ranking paradigm to ensure that the discriminative information among different nodes can be maintained and also be less altered to the perturbations of different degrees. Experiment results on various benchmark datasets verify the effectiveness of our algorithm compared with the supervised and unsupervised models.
translated by 谷歌翻译
包括传统浅层模型和深图神经网络(GNN)在内的图形嵌入方法已导致有希望的应用。然而,由于其优化范式,浅层模型尤其是基于随机步行的算法无法充分利用采样子图或序列中的邻居接近度。基于GNN的算法遇到了高阶信息的利用不足,在堆叠过多的层时很容易引起过度平滑的问题,这可能会恶化低度(长尾)项目的建议,从而限制了表现力和可伸缩性。在本文中,我们提出了一个新颖的框架SAC,即空间自动回归编码,以统一的方式解决上述问题。为了充分利用邻居接近和高级信息,我们设计了一种新型的空间自回旋范式。具体而言,我们首先随机掩盖了多跳的邻居,并通过以明确的多跳上注意来整合所有其他周围的邻居来嵌入目标节点。然后,我们加强模型,通过对比编码和蒙面邻居的嵌入来学习目标节点的邻居预测性编码,并配备了新的硬性阴性采样策略。为了了解目标到邻居预测任务的最小足够表示并删除邻居的冗余,我们通过最大化目标预测性编码和蒙面邻居的嵌入以及同时约束编码之间的相互信息来设计邻居信息瓶颈和周围的邻居的嵌入。公共推荐数据集和实际方案网络规模数据集Douyin-Friend-Recormendation的实验结果证明了SAC的优势与最先进的方法相比。
translated by 谷歌翻译
To offer accurate and diverse recommendation services, recent methods use auxiliary information to foster the learning process of user and item representations. Many SOTA methods fuse different sources of information (user, item, knowledge graph, tags, etc.) into a graph and use Graph Neural Networks to introduce the auxiliary information through the message passing paradigm. In this work, we seek an alternative framework that is light and effective through self-supervised learning across different sources of information, particularly for the commonly accessible item tag information. We use a self-supervision signal to pair users with the auxiliary information associated with the items they have interacted with before. To achieve the pairing, we create a proxy training task. For a given item, the model predicts the correct pairing between the representations obtained from the users that have interacted with this item and the assigned tags. This design provides an efficient solution, using the auxiliary information directly to enhance the quality of user and item embeddings. User behavior in recommendation systems is driven by the complex interactions of many factors behind the decision-making processes. To make the pairing process more fine-grained and avoid embedding collapse, we propose an intent-aware self-supervised pairing process where we split the user embeddings into multiple sub-embedding vectors. Each sub-embedding vector captures a specific user intent via self-supervised alignment with a particular cluster of tags. We integrate our designed framework with various recommendation models, demonstrating its flexibility and compatibility. Through comparison with numerous SOTA methods on seven real-world datasets, we show that our method can achieve better performance while requiring less training time. This indicates the potential of applying our approach on web-scale datasets.
translated by 谷歌翻译
协作过滤(CF)被广泛用于学习用户和从观察到的交互中的项目的信息潜在表示。现有的基于CF的方法通常采用负面抽样来区分不同的项目。在大型数据集上进行负抽样的培训在计算上是昂贵的。此外,应在定义的分布下仔细地对负项目进行采样,以避免在训练数据集中选择观察到的正面项目。不可避免地,在测试集中,从训练数据集中采样的一些负面项目可能是正面的。在本文中,我们提出了一个自我监督的协作过滤框架(SEXTCF),该框架是专门设计的,用于具有隐式反馈的推荐方案。提出的SEXTCF框架简化了暹罗网络,可以轻松地应用于现有的基于深度学习的CF模型,我们称之为骨干网络。 SEXCF的主要思想是增强主链网络生成的输出嵌入,因为它不可避免地增加了用户/项目ID的原始输入。我们建议并研究三种输出扰动技术,可以应用于不同类型的骨干网络,包括传统CF模型和基于图的模型。该框架使学习用户和项目的信息表示无效样本的信息表示,并且对封装的骨干不可知。我们在四个数据集上进行了全面的实验,以表明我们的框架可以比以2 $ \ times $ -4 $ \ times $ $更快的训练速度实现更高的建议准确性。我们还表明,与自我监督的框架Buir相比,SEXCF平均可以提高准确性高达17.79%。
translated by 谷歌翻译
图表卷积网络(GCN)已广泛应用于推荐系统,以其在用户和项目嵌入物上的表示学习功能。然而,由于其递归消息传播机制,GCN容易受到现实世界中常见的噪声和不完整的图表。在文献中,一些工作建议在消息传播期间删除功能转换,但是使其无法有效地捕获图形结构特征。此外,它们在欧几里德空间中的用户和项目模拟了欧几里德空间中的项目,该空间已经在建模复杂的图表时具有高失真,进一步降低了捕获图形结构特征并导致次优性能的能力。为此,在本文中,我们提出了一个简单而有效的四元数图卷积网络(QGCN)推荐模型。在所提出的模型中,我们利用超复杂的四元数空间来学习用户和项目表示,并进行功能转换,以提高性能和鲁棒性。具体来说,我们首先将所有用户和项目嵌入到四元数空间中。然后,我们将eMaterNion嵌入传播层与四元数特征转换介绍以执行消息传播。最后,我们将在每层生成的嵌入物结合在一起,平均汇集策略以获得最终嵌入的推荐。在三个公共基准数据集上进行了广泛的实验表明,我们提出的QGCN模型优于大幅度的基线方法。
translated by 谷歌翻译
推荐系统预测用户在项目中的潜在兴趣,其中核心是学习用户/项目嵌入品。然而,它遭受了数据稀疏问题,跨域推荐可以缓解。但是,大多数事先有效共同学习源域和目标域模型,或者需要侧面特征。然而,由于学习的嵌入由包含偏置信息的源域主导,共同训练和侧面特征将影响目标域上的预测。受到当代艺术在图形表示学习的预训练中的启发,我们提出了一种用于跨域推荐的预先训练和微调图。我们设计了一种用于跨域推荐(PCREC)的新型预训练图神经网络,其采用了图形编码器的对比自我监督的预训练。然后,我们传输预先训练的图形编码器以初始化目标域上的节点嵌入,这有益于目标域上的单个域推荐系统的微调。实验结果表明了PCRec的优越性。详细分析验证了PCRec在传输信息中的优越性,同时避免来自源域的偏差。
translated by 谷歌翻译
推荐系统的目标是通过用户项目的交互历史记录对每个用户和每个项目之间的相关性进行建模,以便最大程度地提高样本得分并最大程度地减少负面样本。当前,两个流行的损失功能被广泛用于优化推荐系统:点心和成对。尽管这些损失功能被广泛使用,但是有两个问题。 (1)这些传统损失功能不适合推荐系统的目标,并充分利用了先验知识信息。 (2)这些传统损失功能的缓慢收敛速度使各种建议模型的实际应用变得困难。为了解决这些问题,我们根据先验知识提出了一个名为“监督个性化排名”(SPR)的新型损失函数。提出的方法通过利用原始数据中每个用户或项目的相互作用历史记录的先验知识来改善BPR损失。与BPR不同,而不是构建<用户,正面项目,负面项目>三元组,而是拟议的SPR构造<用户,相似的用户,正面项目,负面项目,否定项目> Quadruples。尽管SPR非常简单,但非常有效。广泛的实验表明,我们提出的SPR不仅取得了更好的建议性能,而且还可以显着加速收敛速度,从而大大减少所需的训练时间。
translated by 谷歌翻译
对比学习在图表学习领域表现出了巨大的希望。通过手动构建正/负样本,大多数图对比度学习方法依赖于基于矢量内部产品的相似性度量标准来区分图形表示样品。但是,手工制作的样品构建(例如,图表的节点或边缘的扰动)可能无法有效捕获图形的固有局部结构。同样,基于矢量内部产品的相似性度量标准无法完全利用图形的局部结构来表征图差。为此,在本文中,我们提出了一种基于自适应子图生成的新型对比度学习框架,以实现有效且强大的自我监督图表示学习,并且最佳传输距离被用作子绘图之间的相似性度量。它的目的是通过捕获图的固有结构来生成对比样品,并根据子图的特征和结构同时区分样品。具体而言,对于每个中心节点,通过自适应学习关系权重与相应邻域的节点,我们首先开发一个网络来生成插值子图。然后,我们分别构建来自相同和不同节点的子图的正和负对。最后,我们采用两种类型的最佳运输距离(即Wasserstein距离和Gromov-Wasserstein距离)来构建结构化的对比损失。基准数据集上的广泛节点分类实验验证了我们的图形对比学习方法的有效性。
translated by 谷歌翻译
为了减轻传统推荐系统(RSS)的数据稀疏和冷启动问题,将知识图(KGS)纳入补充辅助信息,最近引起了相当大的关注。然而,简单地整合了基于KG的RS模型的KGS,这不一定是提高推荐性能的保证,甚至可能削弱整体模型能力。这是因为这些KG的构建与历史用户项相互作用的集合无关;因此,这些KG的信息可能并不总是有助于推荐给所有用户。在本文中,我们提出了具有个性化推荐的协作指导的细心知识意识的图表卷积网络(CG-KGR)。 CG-KGR是一种新颖的知识意识推荐模型,通过我们提出的协作指导机制,可以实现高度和相干的KG和用户项目交互的学习。具体而言,CG-KGR首先封装与交互式信息摘要的历史相互作用。然后CG-kgr利用它作为提取kgs的信息的指导,最终提供更精确的个性化推荐。我们在两个推荐任务中对四个现实数据集进行了广泛的实验,即TOP-K推荐和点击率(CTR)预测。实验结果表明,CG-KGR模型在Top-K推荐的召回度量方面,最近最初的最先进模型明显优于1.4-27.0%。
translated by 谷歌翻译
Graph Convolution Network (GCN) has become new state-ofthe-art for collaborative filtering. Nevertheless, the reasons of its effectiveness for recommendation are not well understood. Existing work that adapts GCN to recommendation lacks thorough ablation analyses on GCN, which is originally designed for graph classification tasks and equipped with many neural network operations. However, we empirically find that the two most common designs in GCNs -feature transformation and nonlinear activation -contribute little to the performance of collaborative filtering. Even worse, including them adds to the difficulty of training and degrades recommendation performance.In this work, we aim to simplify the design of GCN to make it more concise and appropriate for recommendation. We propose a new model named LightGCN, including only the most essential component in GCN -neighborhood aggregation -for collaborative filtering. Specifically, LightGCN learns user and item embeddings by linearly propagating them on the user-item interaction graph, and uses the weighted sum of the embeddings learned at all layers as the final embedding. Such simple, linear, and neat model is much easier to implement and train, exhibiting substantial improvements (about 16.0% relative improvement on average) over Neural Graph Collaborative Filtering (NGCF) -a state-of-the-art GCN-based recommender model -under exactly the same experimental setting. Further analyses are provided towards the rationality of the simple LightGCN from both analytical and empirical perspectives. Our implementations are available in both TensorFlow
translated by 谷歌翻译
冷启动问题是推荐任务的根本挑战。最近的自我监督学习(SSL)图形神经网络(GNNS)模型,PT-GNN,预先列出GNN模型以重建冷启动嵌入,并为冷启动推荐表示了很大的潜力。然而,由于过平滑的问题,PT-GNN只能捕获多达3阶关系,这不能提供许多有用的辅助信息来描绘目标冷启动用户或项目。此外,嵌入重建任务仅考虑用户和项目的子图内的相关性,同时忽略不同子图之间的相关间。为解决上述挑战,我们提出了一种基于多策略的冷启动推荐(MPT)的预训练方法,它从模型架构和借口任务的角度扩展了PT-GNN,以提高冷启动推荐性能。具体地,在模型架构方面,除了由GNN编码器捕获的用户和项目的短程依赖性之外,我们还引入变压器编码器以捕获远程依赖性。在借口任务方面,除了通过嵌入重建任务考虑用户和项目的相关性,我们还添加了嵌入对比学习任务以捕获用户和项目的相关性。我们在元学习设置下培训GNN和变压器编码,在这些借口任务下,以模拟真实的冷启动方案,使模型轻松迅速,适应新的冷启动用户和项目。三个公共推荐数据集的实验显示了对Vanilla GNN模型的提议MPT模型的优势,预先培训了用户/项目嵌入推断和推荐任务的GNN模型。
translated by 谷歌翻译
对比度学习是图表学习中的有效无监督方法,对比度学习的关键组成部分在于构建正和负样本。以前的方法通常利用图中节点的接近度作为原理。最近,基于数据增强的对比度学习方法已进步以显示视觉域中的强大力量,一些作品将此方法从图像扩展到图形。但是,与图像上的数据扩展不同,图上的数据扩展远不那么直观,而且很难提供高质量的对比样品,这为改进留出了很大的空间。在这项工作中,通过引入一个对抗性图视图以进行数据增强,我们提出了一种简单但有效的方法,对抗图对比度学习(ARIEL),以在合理的约束中提取信息性的对比样本。我们开发了一种称为稳定训练的信息正则化的新技术,并使用子图抽样以进行可伸缩。我们通过将每个图形实例视为超级节点,从节点级对比度学习到图级。 Ariel始终优于在现实世界数据集上的节点级别和图形级分类任务的当前图对比度学习方法。我们进一步证明,面对对抗性攻击,Ariel更加强大。
translated by 谷歌翻译
近年来,多媒体推荐的兴趣日益增长,旨在预测用户是否会与具有多模式内容的项目进行交互。以前的研究侧重于建模用户项目与包含作为侧面信息的多模式特征的交互。但是,该方案并不适用于多媒体推荐。首先,只有通过高阶项 - 用户项共同发生隐含地建模协作项目 - 项目关系。我们认为这些多模式内容的潜在语义项 - 项目结构可以有利于学习更好的项目表示,并协助推荐模型全面发现候选项目。其次,以前的研究忽视了细粒度的多峰融合。虽然访问多种方式可能允许我们捕获丰富的信息,但我们认为以前的工作中的线性组合或连接的简单粗粒融合不足以完全理解内容信息和项目关系。在此结束时,我们提出了一个潜在的结构采用对比模型融合方法(微型简洁性)。具体而言,我们设计了一种新型的模态感知结构学习模块,它为每个模态学习项目项目关系。基于学习的模态感知潜在项目关系,我们执行明确地将物品关联的图形卷评进行了模当感知的项目表示。然后,我们设计一种新颖的对比方法来保险熔断多模峰特征。这些丰富的项目表示可以插入现有的协作过滤方法,以便更准确的建议。关于现实世界数据集的广泛实验证明了我们在最先进的基线上的方法的优越性。
translated by 谷歌翻译
Learning vector representations (aka. embeddings) of users and items lies at the core of modern recommender systems. Ranging from early matrix factorization to recently emerged deep learning based methods, existing efforts typically obtain a user's (or an item's) embedding by mapping from pre-existing features that describe the user (or the item), such as ID and attributes. We argue that an inherent drawback of such methods is that, the collaborative signal, which is latent in user-item interactions, is not encoded in the embedding process. As such, the resultant embeddings may not be sufficient to capture the collaborative filtering effect.In this work, we propose to integrate the user-item interactionsmore specifically the bipartite graph structure -into the embedding process. We develop a new recommendation framework Neural Graph Collaborative Filtering (NGCF), which exploits the useritem graph structure by propagating embeddings on it. This leads to the expressive modeling of high-order connectivity in useritem graph, effectively injecting the collaborative signal into the embedding process in an explicit manner. We conduct extensive experiments on three public benchmarks, demonstrating significant improvements over several state-of-the-art models like HOP-Rec [40] and Collaborative Memory Network [5]. Further analysis verifies the importance of embedding propagation for learning better user and item representations, justifying the rationality and effectiveness of NGCF. Codes are available at https://github.com/ xiangwang1223/neural_graph_collaborative_filtering. CCS CONCEPTS• Information systems → Recommender systems. * In the version published in ACM Digital Library, we find some small bugs; the bugs do not change the comparison results and the empirical findings. In this latest version, we update and correct the experimental results (i.e., the preprocessing of Yelp2018 dataset and the ndcg metric). All updates are highlighted in footnotes.
translated by 谷歌翻译
历史互动是推荐模型培训的默认选择,通常表现出高稀疏性,即大多数用户项目对都是未观察到的缺失数据。标准选择是将缺失的数据视为负训练样本,并估计用户项目对之间的相互作用以及观察到的相互作用。通过这种方式,在训练过程中不可避免地会误标记一些潜在的互动,这将损害模型的保真度,阻碍模型回忆起错误标签的项目,尤其是长尾尾。在这项工作中,我们从新的不确定性的新角度研究了标签的问题,该问题描述了缺失数据的固有随机性。随机性促使我们超越了相互作用的可能性,并接受了不确定性建模。为此,我们提出了一个新的不确定性不确定性建议(AUR)框架,该框架由新的不确定性估计器以及正常的推荐模型组成。根据核心不确定性理论,我们得出了一个新的建议目标来学习估计量。由于错误标签的机会反映了一对的潜力,因此AUR根据不确定性提出了建议,该建议被证明是为了改善较不受欢迎的项目的建议性能而不会牺牲整体性能。我们在三个代表性推荐模型上实例化AUR:来自主流模型体系结构的矩阵分解(MF),LightGCN和VAE。两个现实世界数据集的广泛结果验证了AUR W.R.T.的有效性。更好的建议结果,尤其是在长尾项目上。
translated by 谷歌翻译
图形神经网络(GNN)已显示为与用户项目交互图建模的协作过滤(CF)的有前途的解决方案。现有基于GNN的推荐系统的关键思想是递归执行沿用户项目交互边缘传递的消息,以完善编码的嵌入。然而,尽管它们有效,但当前的大多数推荐模型都依赖于足够和高质量的培训数据,因此学习的表示形式可以很好地捕获准确的用户偏好。用户行为数据在许多实际建议方案中通常很嘈杂,并且表现出偏斜的分布,这可能会导致基于GNN的模型中的次优表示性能。在本文中,我们提出了SHT,这是一种新颖的自我监视的超盖变压器框架(SHT),该框架(SHT)通过以明确的方式探索全球协作关系来增强用户表示。具体而言,我们首先赋予图形神经CF范式,以通过HyperGraph Transformer网络维护用户和项目之间的全局协作效果。在蒸馏的全球环境中,提出了一个跨视图生成的自我监督学习组件,用于对用户项目交互图的数据增强,以增强推荐系统的鲁棒性。广泛的实验表明,SHT可以显着改善各种最新基线的性能。进一步的消融研究表明,我们的SHT推荐框架在减轻数据稀疏性和噪声问题方面具有出色的表示能力。源代码和评估数据集可在以下网址获得:https://github.com/akaxlh/sht。
translated by 谷歌翻译
Many Click-Through Rate (CTR) prediction works focused on designing advanced architectures to model complex feature interactions but neglected the importance of feature representation learning, e.g., adopting a plain embedding layer for each feature, which results in sub-optimal feature representations and thus inferior CTR prediction performance. For instance, low frequency features, which account for the majority of features in many CTR tasks, are less considered in standard supervised learning settings, leading to sub-optimal feature representations. In this paper, we introduce self-supervised learning to produce high-quality feature representations directly and propose a model-agnostic Contrastive Learning for CTR (CL4CTR) framework consisting of three self-supervised learning signals to regularize the feature representation learning: contrastive loss, feature alignment, and field uniformity. The contrastive module first constructs positive feature pairs by data augmentation and then minimizes the distance between the representations of each positive feature pair by the contrastive loss. The feature alignment constraint forces the representations of features from the same field to be close, and the field uniformity constraint forces the representations of features from different fields to be distant. Extensive experiments verify that CL4CTR achieves the best performance on four datasets and has excellent effectiveness and compatibility with various representative baselines.
translated by 谷歌翻译
基于会话的建议旨在根据持续的会话预测用户的下一个行为。先前的作品是将会话建模为一系列项目的变量长度,并学习单个项目和汇总会话的表示。最近的研究应用了图形神经网络,具有注意机制,通过将会话建模为图形结构化数据来捕获复杂的项目过渡和依赖性。但是,他们仍然在数据和学习方法方面面临着根本的挑战,例如稀疏监督信号和会议中的嘈杂互动,从而导致次优性能。在本文中,我们提出了SR-GCL,这是一个基于会话建议的新型对比学习框架。作为对比学习的关键组成部分,我们提出了两种全球环境增强的数据增强方法,同时保持原始会话的语义。与其他最先进的方法相比,两个现实世界电子商务数据集的广泛实验结果证明了SR-GCL的优势。
translated by 谷歌翻译