推荐系统的目标是通过用户项目的交互历史记录对每个用户和每个项目之间的相关性进行建模,以便最大程度地提高样本得分并最大程度地减少负面样本。当前,两个流行的损失功能被广泛用于优化推荐系统:点心和成对。尽管这些损失功能被广泛使用,但是有两个问题。 (1)这些传统损失功能不适合推荐系统的目标,并充分利用了先验知识信息。 (2)这些传统损失功能的缓慢收敛速度使各种建议模型的实际应用变得困难。为了解决这些问题,我们根据先验知识提出了一个名为“监督个性化排名”(SPR)的新型损失函数。提出的方法通过利用原始数据中每个用户或项目的相互作用历史记录的先验知识来改善BPR损失。与BPR不同,而不是构建<用户,正面项目,负面项目>三元组,而是拟议的SPR构造<用户,相似的用户,正面项目,负面项目,否定项目> Quadruples。尽管SPR非常简单,但非常有效。广泛的实验表明,我们提出的SPR不仅取得了更好的建议性能,而且还可以显着加速收敛速度,从而大大减少所需的训练时间。
translated by 谷歌翻译
与传统的协作过滤方法相比,图表卷积网络可以明确地模拟用户 - 项目二分类图的节点之间的交互,并有效地使用高阶邻居,这使得图形神经网络能够获得更有效的嵌入品以获得推荐,例如推荐作为ngcf和lightgcn。然而,其表示非常易于相互作用的噪音。在响应这个问题时,SGL探讨了用户项目图上的自我监督学习,以提高GCN的鲁棒性。虽然有效,但我们发现SGL直接适用SIMCLR的比较学习框架。此框架可能不会直接适用于推荐系统的场景,并且没有充分考虑用户项交互的不确定性。在这项工作中,我们的目标是考虑充分建议制度的情景中对比学习的应用,使其更适合推荐任务。我们提出了一个监督的对比学习框架来预先列出用户项目二分钟图,然后微调图形卷积神经网络。具体而言,我们将在数据预处理期间比较用户和项目之间的相似性,然后在应用对比学习时,不仅将增强视图视为正样本,而且还将被视为正样品的一定数量的类似样品。 ,这与SIMCLR不同,他们以批量作为阴性样品处理其他样本。我们将这种学习方法术语定期为监督对比学习(SCL)并将其应用于最先进的LightGCN。另外,为了考虑节点交互的不确定性,我们还提出了一种新的数据增强方法,称为节点复制。
translated by 谷歌翻译
Learning vector representations (aka. embeddings) of users and items lies at the core of modern recommender systems. Ranging from early matrix factorization to recently emerged deep learning based methods, existing efforts typically obtain a user's (or an item's) embedding by mapping from pre-existing features that describe the user (or the item), such as ID and attributes. We argue that an inherent drawback of such methods is that, the collaborative signal, which is latent in user-item interactions, is not encoded in the embedding process. As such, the resultant embeddings may not be sufficient to capture the collaborative filtering effect.In this work, we propose to integrate the user-item interactionsmore specifically the bipartite graph structure -into the embedding process. We develop a new recommendation framework Neural Graph Collaborative Filtering (NGCF), which exploits the useritem graph structure by propagating embeddings on it. This leads to the expressive modeling of high-order connectivity in useritem graph, effectively injecting the collaborative signal into the embedding process in an explicit manner. We conduct extensive experiments on three public benchmarks, demonstrating significant improvements over several state-of-the-art models like HOP-Rec [40] and Collaborative Memory Network [5]. Further analysis verifies the importance of embedding propagation for learning better user and item representations, justifying the rationality and effectiveness of NGCF. Codes are available at https://github.com/ xiangwang1223/neural_graph_collaborative_filtering. CCS CONCEPTS• Information systems → Recommender systems. * In the version published in ACM Digital Library, we find some small bugs; the bugs do not change the comparison results and the empirical findings. In this latest version, we update and correct the experimental results (i.e., the preprocessing of Yelp2018 dataset and the ndcg metric). All updates are highlighted in footnotes.
translated by 谷歌翻译
历史互动是推荐模型培训的默认选择,通常表现出高稀疏性,即大多数用户项目对都是未观察到的缺失数据。标准选择是将缺失的数据视为负训练样本,并估计用户项目对之间的相互作用以及观察到的相互作用。通过这种方式,在训练过程中不可避免地会误标记一些潜在的互动,这将损害模型的保真度,阻碍模型回忆起错误标签的项目,尤其是长尾尾。在这项工作中,我们从新的不确定性的新角度研究了标签的问题,该问题描述了缺失数据的固有随机性。随机性促使我们超越了相互作用的可能性,并接受了不确定性建模。为此,我们提出了一个新的不确定性不确定性建议(AUR)框架,该框架由新的不确定性估计器以及正常的推荐模型组成。根据核心不确定性理论,我们得出了一个新的建议目标来学习估计量。由于错误标签的机会反映了一对的潜力,因此AUR根据不确定性提出了建议,该建议被证明是为了改善较不受欢迎的项目的建议性能而不会牺牲整体性能。我们在三个代表性推荐模型上实例化AUR:来自主流模型体系结构的矩阵分解(MF),LightGCN和VAE。两个现实世界数据集的广泛结果验证了AUR W.R.T.的有效性。更好的建议结果,尤其是在长尾项目上。
translated by 谷歌翻译
Top-K建议是推荐系统中的一个基本任务,通常通过比较积极和负对对学习。对比损失(CL)是最近受到更多关注的对比学习的关键,我们发现它非常适合Top-K建议。但是,这是一个问题,即CL处理正面和阴性样本的重要性。一方面,CL面向一个正样品的不平衡问题和许多阴性样品。另一方面,稀疏的数据集中很少有稀疏项目应该强调他们的重要性。此外,其他重要问题是稀疏正项目仍然没有充分利用建议。因此,我们通过使用CL损耗功能同时使用多个正项目(或样本)来提出新的数据增强方法。因此,我们提出了一种基于多样的对比损失(MSCL)功能,通过平衡正面和负样本和数据增强的重要性来解决两个问题。基于图表卷积网络(GCN)方法,实验结果表明了MSCL的最先进的性能。所提出的MSCL很简单,可以在许多方法中应用。我们将在验收时发布GitHub上的代码。
translated by 谷歌翻译
从隐式反馈建模推荐系统的核心目标是最大化正样品分数$ S_P $,并最大限度地减少负面样本评分$ S_N $,其通常可以汇总为两个范式:一定点和成对的。点接近符合其标签的每个样本,其在级别的加权和采样中是灵活的,但忽略固有的排名属性。通过定性最大限度地减少相对分数$ S_N - S_P $,成对方法自然地捕获样品的排名,而是遭受培训效率。此外,这两种方法都很难明确提供个性化决策边界,以确定用户是否对查看的项目感兴趣。要解决这些问题,我们创新地向每个用户创新介绍了辅助分数$ B_U $代表用户兴趣边界(UIB),并单独惩罚将边界与成对范例交叉的示例,即分数低于$ B_U的正示例$和分数高于$ b_u $的否定样本。通过这种方式,我们的方法成功地实现了一定点的混合损失,并且成对将两者的优点结合在一起。在分析上,我们表明我们的方法可以提供个性化决策边界,并在没有任何特殊的采样策略的情况下显着提高培训效率。广泛的结果表明,我们的方法不仅可以显着改进,不仅是经典的点或成对模型,还可以实现具有复杂损耗功能和复杂特征编码的最先进模型。
translated by 谷歌翻译
考虑到用户项目网络中幂律分布的流行率,双曲线空间最近引起了人们的关注,并在推荐系统中获得了令人印象深刻的性能。双曲线推荐的优点在于,其指数增加的能力非常适合描述幂律分布式用户项目网络,而欧几里得等效的不足。尽管如此,尚不清楚双曲模型可以有效地推荐哪些项目,哪些项目不能。为了解决上述问题,我们采用最基本的建议技术,将协作过滤作为一种媒介,以研究双曲线和欧几里得建议模型的行为。结果表明,(1)尾部在双曲线空间中比在欧几里得空间中更重点,但是仍然有足够的改进空间。 (2)头部物品在双曲线空间中受到适度的关注,这可以大大改善; (3)尽管如此,双曲线模型比欧几里得模型表现出更具竞争力的性能。在上述观察结果的驱动下,我们设计了一种新颖的学习方法,称为双曲线信息合作过滤(HICF),旨在弥补头部项目的建议有效性,同时提高尾部项目的性能。主要的想法是调整双曲线的排名学习,使其拉力和推动程序几何了解,并为学习头和尾部的学习提供信息指导。广泛的实验备份了分析结果,还显示了该方法的有效性。这项工作对于个性化的建议很有价值,因为它揭示了双曲线空间有助于建模尾部项目,这通常代表用户定制的偏好或新产品。
translated by 谷歌翻译
建议中的用户项交互可以自然地将其作为用户项二分钟图。鉴于图形表示学习中图形神经网络(GNN)的成功,已提出基于GNN的C方法来推进推荐系统。这些方法通常根据学习的用户和项目嵌入式提出建议。但是,我们发现它们不会在真实建议中表现出很常见的稀疏稀疏用户项目图。因此,在这项工作中,我们介绍了一种新颖的视角,以建立基于GNN的CF方法,了解建议的框架局部图协作滤波(LGCF)。 LGCF的一个关键优势在于它不需要为每个用户和项目学习嵌入,这在稀疏方案中具有挑战性。或者,LGCF旨在将有用的CF信息编码为本地化的图表并基于这些图形提出建议。关于各种数据集的广泛实验验证了LGCF的有效性,尤其是稀疏场景。此外,经验结果表明LGCF为基于嵌入的CF模型提供了互补信息,该模型可用于提高推荐性能。
translated by 谷歌翻译
在隐性反馈推荐中,将短期偏好纳入推荐系统近年来引起了不断的关注。但是,在历史交互中的意外行为,如偶然点击一些物品,也不能反映用户固有的偏好。现有研究未能模拟意外行为的影响,从而实现劣等的推荐性能。在本文中,我们提出了一种多偏好模型(MPM)来消除意外行为的影响。 MPM首先通过细粒度的偏好模块从最近的历史交互中提取用户的即时偏好。然后,培训意外行为检测器以判断这些即时偏好是否由意外行为偏置。我们还将用户的一般偏好集成在MPM中。最后,执行输出模块以消除意外行为的影响,并集成所有信息以进行最终推荐。我们在电影的两个数据集和电子零售中进行广泛的实验,展示了我们在最先进的方法上的模型的显着改进。实验结果表明,MPM在HR @ 10和NDCG @ 10中获得了大规模的改善,平均与斯trec模型相比相对增加了3.643%和4.107%。我们在https://github.com/chenjie04/mpm/发布我们的代码。
translated by 谷歌翻译
In recent years, deep neural networks have yielded immense success on speech recognition, computer vision and natural language processing. However, the exploration of deep neural networks on recommender systems has received relatively less scrutiny. In this work, we strive to develop techniques based on neural networks to tackle the key problem in recommendation -collaborative filtering -on the basis of implicit feedback.Although some recent work has employed deep learning for recommendation, they primarily used it to model auxiliary information, such as textual descriptions of items and acoustic features of musics. When it comes to model the key factor in collaborative filtering -the interaction between user and item features, they still resorted to matrix factorization and applied an inner product on the latent features of users and items.By replacing the inner product with a neural architecture that can learn an arbitrary function from data, we present a general framework named NCF, short for Neural networkbased Collaborative Filtering. NCF is generic and can express and generalize matrix factorization under its framework. To supercharge NCF modelling with non-linearities, we propose to leverage a multi-layer perceptron to learn the user-item interaction function. Extensive experiments on two real-world datasets show significant improvements of our proposed NCF framework over the state-of-the-art methods. Empirical evidence shows that using deeper layers of neural networks offers better recommendation performance.
translated by 谷歌翻译
图表卷积网络(GCN)已广泛应用于推荐系统,以其在用户和项目嵌入物上的表示学习功能。然而,由于其递归消息传播机制,GCN容易受到现实世界中常见的噪声和不完整的图表。在文献中,一些工作建议在消息传播期间删除功能转换,但是使其无法有效地捕获图形结构特征。此外,它们在欧几里德空间中的用户和项目模拟了欧几里德空间中的项目,该空间已经在建模复杂的图表时具有高失真,进一步降低了捕获图形结构特征并导致次优性能的能力。为此,在本文中,我们提出了一个简单而有效的四元数图卷积网络(QGCN)推荐模型。在所提出的模型中,我们利用超复杂的四元数空间来学习用户和项目表示,并进行功能转换,以提高性能和鲁棒性。具体来说,我们首先将所有用户和项目嵌入到四元数空间中。然后,我们将eMaterNion嵌入传播层与四元数特征转换介绍以执行消息传播。最后,我们将在每层生成的嵌入物结合在一起,平均汇集策略以获得最终嵌入的推荐。在三个公共基准数据集上进行了广泛的实验表明,我们提出的QGCN模型优于大幅度的基线方法。
translated by 谷歌翻译
隐式反馈经常用于开发个性化的推荐服务,因为其无处不在和现实世界中的可访问性。为了有效地利用此类信息,大多数研究都采用成对排名方法对构建的培训三胞胎(用户,正面项目,负项目),并旨在区分每个用户的正面项目和负面项目。但是,这些方法中的大多数都同样对待所有训练三胞胎,这忽略了不同的正或负项目之间的微妙差异。另一方面,即使其他一些作品利用用户行为的辅助信息(例如,停留时间)来捕获这种微妙的差异,但很难获得这样的辅助信息。为了减轻上述问题,我们提出了一个名为Triplet重要性学习(TIL)的新型培训框架,该框架可以自适应地学习训练三胞胎的重要性得分。我们为重要性得分生成的两种策略设计了两种策略,并将整个过程作为双层优化,这不需要任何基于规则的设计。我们将提出的训练程序与基于图形神经网络(GNN)基于图形的推荐模型的几个矩阵分解(MF)集成在一起,证明了我们的框架的兼容性。通过使用与许多最先进方法的三个现实世界数据集进行比较,我们表明我们所提出的方法在top-k推荐方面的召回@k方面优于3-21 \%的最佳现有模型。
translated by 谷歌翻译
在推荐系统中,一个普遍的挑战是冷门问题,在系统中,相互作用非常有限。为了应对这一挑战,最近,许多作品将元优化的想法介绍到建议方案中,即学习仅通过过去的几个交互项目来学习用户偏好。核心想法是为所有用户学习全局共享的元启动参数,并分别为每个用户迅速调整其本地参数。他们的目的是在各种用户的偏好学习中得出一般知识,以便通过博学的先验和少量培训数据迅速适应未来的新用户。但是,以前的作品表明,推荐系统通常容易受到偏见和不公平的影响。尽管元学习成功地通过冷启动提高了推荐性能,但公平性问题在很大程度上被忽略了。在本文中,我们提出了一个名为Clover的全面的公平元学习框架,以确保元学习的推荐模型的公平性。我们系统地研究了三种公平性 - 个人公平,反事实公平和推荐系统中的群体公平,并建议通过多任务对抗学习方案满足所有三种类型。我们的框架提供了一种通用的培训范式,适用于不同的元学习推荐系统。我们证明了三叶草对三个现实世界数据集的代表性元学习用户偏好估计器的有效性。经验结果表明,三叶草可以实现全面的公平性,而不会恶化整体的冷淡建议性能。
translated by 谷歌翻译
协作过滤(CF)被广泛用于学习用户和从观察到的交互中的项目的信息潜在表示。现有的基于CF的方法通常采用负面抽样来区分不同的项目。在大型数据集上进行负抽样的培训在计算上是昂贵的。此外,应在定义的分布下仔细地对负项目进行采样,以避免在训练数据集中选择观察到的正面项目。不可避免地,在测试集中,从训练数据集中采样的一些负面项目可能是正面的。在本文中,我们提出了一个自我监督的协作过滤框架(SEXTCF),该框架是专门设计的,用于具有隐式反馈的推荐方案。提出的SEXTCF框架简化了暹罗网络,可以轻松地应用于现有的基于深度学习的CF模型,我们称之为骨干网络。 SEXCF的主要思想是增强主链网络生成的输出嵌入,因为它不可避免地增加了用户/项目ID的原始输入。我们建议并研究三种输出扰动技术,可以应用于不同类型的骨干网络,包括传统CF模型和基于图的模型。该框架使学习用户和项目的信息表示无效样本的信息表示,并且对封装的骨干不可知。我们在四个数据集上进行了全面的实验,以表明我们的框架可以比以2 $ \ times $ -4 $ \ times $ $更快的训练速度实现更高的建议准确性。我们还表明,与自我监督的框架Buir相比,SEXCF平均可以提高准确性高达17.79%。
translated by 谷歌翻译
最近提出的协作度量学习(CML)范式由于其简单性和有效性引起了人们对推荐系统(RS)领域的广泛兴趣。通常,CML的现有文献在很大程度上取决于\ textit {负抽样}策略,以减轻成对计算的耗时负担。但是,在这项工作中,通过进行理论分析,我们发现负抽样会导致对概括误差的偏差估计。具体而言,我们表明,基于抽样的CML将在概括性结合中引入一个偏差项,该术语是由per-use \ textit {total方差}(TV)量化的,在负面采样和地面真相分布引起的分布之间。这表明,即使有足够大的训练数据,优化基于采样的CML损耗函数也不能确保小概括误差。此外,我们表明偏见术语将消失,而无需负面抽样策略。在此激励的情况下,我们提出了一种有效的替代方案,而没有对CML进行负面采样的cml,name \ textit {无抽样协作度量学习}(SFCML),以消除实际意义上的采样偏见。最后,超过七个基准数据集的全面实验表达了所提出的算法的优势。
translated by 谷歌翻译
在一级推荐系统中,目标是从一小部分交互的用户和项目中学习一个模型,然后在许多具有未知交互的对对之间确定与正相关的用户成对。以前的大多数损失功能都依赖于不同的用户和项目对,这些功能是从具有未知交互的互动效果中选择的,以获得更好的预测性能。该策略引入了一些挑战,例如增加训练时间并通过选择“与未知互动的类似对”作为不同的对,从而损害了表现。在本文中,目标是仅使用类似的集合来训练模型。我们指出了三种微不足道的解决方案,这些解决方案仅在类似对训练时收敛到它们时:崩溃,部分崩溃和缩小的解决方案。我们提出了两个术语,可以添加到文献中的目标函数中,以避免这些解决方案。第一个是铰链成对距离损耗,它通过保持所有表示的平均成对距离大于边缘,从而避免了缩小和折叠的解决方案。第二个是正交项,它最大程度地减少了表示形式的尺寸之间的相关性,并避免了部分折叠的解决方案。我们对公共和现实数据集的各种任务进行实验。结果表明,我们仅使用类似对的方法使用类似对和大量不同对的方法优于最先进的方法。
translated by 谷歌翻译
Graph Convolution Network (GCN) has become new state-ofthe-art for collaborative filtering. Nevertheless, the reasons of its effectiveness for recommendation are not well understood. Existing work that adapts GCN to recommendation lacks thorough ablation analyses on GCN, which is originally designed for graph classification tasks and equipped with many neural network operations. However, we empirically find that the two most common designs in GCNs -feature transformation and nonlinear activation -contribute little to the performance of collaborative filtering. Even worse, including them adds to the difficulty of training and degrades recommendation performance.In this work, we aim to simplify the design of GCN to make it more concise and appropriate for recommendation. We propose a new model named LightGCN, including only the most essential component in GCN -neighborhood aggregation -for collaborative filtering. Specifically, LightGCN learns user and item embeddings by linearly propagating them on the user-item interaction graph, and uses the weighted sum of the embeddings learned at all layers as the final embedding. Such simple, linear, and neat model is much easier to implement and train, exhibiting substantial improvements (about 16.0% relative improvement on average) over Neural Graph Collaborative Filtering (NGCF) -a state-of-the-art GCN-based recommender model -under exactly the same experimental setting. Further analyses are provided towards the rationality of the simple LightGCN from both analytical and empirical perspectives. Our implementations are available in both TensorFlow
translated by 谷歌翻译
预测短期交互会话的下一个交互是基于会话的推荐中的一个具有挑战性的任务。几乎所有现有的作品都依赖于项目转换模式,并在建模用户偏好时忽略用户历史会话的影响,这通常会导致非个性化推荐。此外,基于现有的个性化会话的推荐人仅基于当前用户的会话捕获用户首选项,而是忽略来自其他用户的历史会话的有用物品转换模式。为了解决这些问题,我们提出了一种新颖的异构全球图形神经网络(HG-GNN)以以微妙的方式利用所有会话的物品过渡,以便更好地推断用户偏好与当前和历史会话。为了有效利用所有用户的所有会话转换,我们提出了一种新的异构全局图,该图包含会话,用户项交互和全局共同发生项目的项目转换。此外,为了综合地从会话中捕获用户偏好,我们建议通过两个图形增强偏好编码器学习来自全局图的两个用户表示。具体地,我们在异构全球图上设计一种新的异构图形神经网络(HGNN),以了解具有丰富语义的长期用户偏好和项目表示。基于HGNN,我们提出了当前偏好编码器和历史偏好编码器,分别捕获来自当前和历史会话的不同级别的用户偏好。为实现个性化建议,我们将用户当前偏好和历史利益的表示集成到生成最终用户首选项表示。三个真实数据集的广泛实验结果表明,我们的模型优于其他最先进的方法。
translated by 谷歌翻译
图形神经网络(GNN)已显示为与用户项目交互图建模的协作过滤(CF)的有前途的解决方案。现有基于GNN的推荐系统的关键思想是递归执行沿用户项目交互边缘传递的消息,以完善编码的嵌入。然而,尽管它们有效,但当前的大多数推荐模型都依赖于足够和高质量的培训数据,因此学习的表示形式可以很好地捕获准确的用户偏好。用户行为数据在许多实际建议方案中通常很嘈杂,并且表现出偏斜的分布,这可能会导致基于GNN的模型中的次优表示性能。在本文中,我们提出了SHT,这是一种新颖的自我监视的超盖变压器框架(SHT),该框架(SHT)通过以明确的方式探索全球协作关系来增强用户表示。具体而言,我们首先赋予图形神经CF范式,以通过HyperGraph Transformer网络维护用户和项目之间的全局协作效果。在蒸馏的全球环境中,提出了一个跨视图生成的自我监督学习组件,用于对用户项目交互图的数据增强,以增强推荐系统的鲁棒性。广泛的实验表明,SHT可以显着改善各种最新基线的性能。进一步的消融研究表明,我们的SHT推荐框架在减轻数据稀疏性和噪声问题方面具有出色的表示能力。源代码和评估数据集可在以下网址获得:https://github.com/akaxlh/sht。
translated by 谷歌翻译
在大数据时代,推荐系统在我们日常生活中的关键信息过滤表现出了杰出的成功。近年来,推荐系统的技术发展,从感知学习到认知推理,这些认知推理将推荐任务作为逻辑推理的过程,并取得了重大改进。但是,推理中的逻辑陈述隐含地承认有序无关紧要,甚至没有考虑在许多建议任务中起重要作用的时间信息。此外,与时间上下文合并的建议模型往往是自我集中的,即自动更加(少)将相关性(不相关)分别集中在相关性上。为了解决这些问题,在本文中,我们提出了一种基于神经协作推理(TISANCR)的推荐模型的时间感知自我注意力,该模型将时间模式和自我注意机制集成到基于推理的建议中。特别是,以相对时间为代表的时间模式,提供上下文和辅助信息来表征用户在建议方面的偏好,而自我注意力则是利用自我注意力来提炼信息的模式并抑制无关紧要的。因此,自我煽动的时间信息的融合提供了对用户偏好的更深入表示。基准数据集的广泛实验表明,所提出的Tisancr取得了重大改进,并始终优于最先进的建议方法。
translated by 谷歌翻译