推荐系统预测用户在项目中的潜在兴趣,其中核心是学习用户/项目嵌入品。然而,它遭受了数据稀疏问题,跨域推荐可以缓解。但是,大多数事先有效共同学习源域和目标域模型,或者需要侧面特征。然而,由于学习的嵌入由包含偏置信息的源域主导,共同训练和侧面特征将影响目标域上的预测。受到当代艺术在图形表示学习的预训练中的启发,我们提出了一种用于跨域推荐的预先训练和微调图。我们设计了一种用于跨域推荐(PCREC)的新型预训练图神经网络,其采用了图形编码器的对比自我监督的预训练。然后,我们传输预先训练的图形编码器以初始化目标域上的节点嵌入,这有益于目标域上的单个域推荐系统的微调。实验结果表明了PCRec的优越性。详细分析验证了PCRec在传输信息中的优越性,同时避免来自源域的偏差。
translated by 谷歌翻译
图表神经网络(GNNS)已广泛应用于推荐任务,并获得了非常吸引人的性能。然而,大多数基于GNN的推荐方法在实践中遭受数据稀疏问题。同时,预训练技术在减轻了各个领域(如自然语言处理(NLP)和计算机视觉(CV)等域中的数据稀疏而取得了巨大成功。因此,图形预培训具有扩大基于GNN的建议的数据稀疏的巨大潜力。但是,预先培训GNN,建议面临独特的挑战。例如,不同推荐任务中的用户项交互图具有不同的用户和项目集,并且它们通常存在不同的属性。因此,在NLP和CV中常用的成功机制将知识从预训练任务转移到下游任务,例如共享所学习的嵌入式或特征提取器,而不是直接适用于现有的基于GNN的推荐模型。为了解决这些挑战,我们精致地设计了一个自适应图形预训练框架,用于本地化协作滤波(适应)。它不需要传输用户/项目嵌入式,并且能够跨越不同图的共同知识和每个图形的唯一性。广泛的实验结果表明了适应的有效性和优越性。
translated by 谷歌翻译
社会建议利用社会关系来增强建议的代表性学习。大多数社会推荐模型都将用户互动(协作领域)和社会关系(社会领域)的用户表示统一。但是,这种方法可能无法模拟用户在两个域中的异质行为模式,从而损害了用户表示的表现力。在这项工作中,为了解决这种局限性,我们为社会建议提出了一个新颖的截面对比度学习框架DCREC。更具体地说,我们建议从项目和社会域中学习分开的用户表示。此外,分离的对比度学习旨在在分散的用户表示之间进行社交建议之间的知识转移。各种现实世界数据集的全面实验证明了我们提出的模型的优势。
translated by 谷歌翻译
冷启动问题在推荐系统中仍然是一个非常具有挑战性的问题。幸运的是,冷启动用户在辅助源域中的交互可以帮助目标域中的冷启动推荐。如何将用户的偏好从源域转移到目标域,是跨域推荐(CDR)中的关键问题,这是处理冷启动问题的有希望的解决方案。大多数现有方法模型用于传输所有用户的偏好。直观地,由于偏好因用户对用户而异,不同用户的偏好网桥应该是不同的。在这一行中,我们提出了一个名为个性化用户偏好的小说框架,用于跨域推荐(PTUPCDR)。具体地,学习了与用户特征嵌入的元网络,以生成个性化桥接功能以实现每个用户的个性化的偏好传送。要稳定地学习元网络,我们采用了面向任务的优化过程。利用元生成的个性化桥函数,用户在源域中的偏好嵌入可以转换为目标域,并且变换的用户偏好嵌入可以用作目标域中的冷启动用户的初始嵌入。使用大型现实数据集,我们进行广泛的实验,以评估PTUPCDR对冷启动和热启动阶段的有效性。代码已在https://github.com/easezyc/wsdm2022-ptupcdr中提供。
translated by 谷歌翻译
为了开发有效的顺序推荐人,提出了一系列序列表示学习(SRL)方法来模拟历史用户行为。大多数现有的SRL方法都依赖于开发序列模型以更好地捕获用户偏好的明确项目ID。尽管在某种程度上有效,但由于通过明确建模项目ID的限制,这些方法很难转移到新的建议方案。为了解决这个问题,我们提出了一种新颖的通用序列表示方法,名为UNISREC。提出的方法利用项目的文本在不同的建议方案中学习可转移表示形式。为了学习通用项目表示形式,我们设计了一个基于参数美白和Experts的混合物增强的适配器的轻巧项目编码体系结构。为了学习通用序列表示,我们通过抽样多域负面因素介绍了两个对比的预训练任务。借助预训练的通用序列表示模型,我们的方法可以在电感或跨传导设置下以参数有效的方式有效地传输到新的推荐域或平台。在现实世界数据集上进行的广泛实验证明了该方法的有效性。尤其是,我们的方法还导致跨平台环境中的性能提高,显示了所提出的通用SRL方法的强可传递性。代码和预培训模型可在以下网址获得:https://github.com/rucaibox/unisrec。
translated by 谷歌翻译
Graph representation learning has emerged as a powerful technique for addressing real-world problems. Various downstream graph learning tasks have benefited from its recent developments, such as node classification, similarity search, and graph classification. However, prior arts on graph representation learning focus on domain specific problems and train a dedicated model for each graph dataset, which is usually non-transferable to out-of-domain data. Inspired by the recent advances in pre-training from natural language processing and computer vision, we design Graph Contrastive Coding (GCC) 1 -a self-supervised graph neural network pre-training framework-to capture the universal network topological properties across multiple networks. We design GCC's pre-training task as subgraph instance discrimination in and across networks and leverage contrastive learning to empower graph neural networks to learn the intrinsic and transferable structural representations. We conduct extensive experiments on three graph learning tasks and ten graph datasets. The results show that GCC pre-trained on a collection of diverse datasets can achieve competitive or better performance to its task-specific and trained-from-scratch counterparts. This suggests that the pre-training and fine-tuning paradigm presents great potential for graph representation learning.
translated by 谷歌翻译
冷启动问题是推荐任务的根本挑战。最近的自我监督学习(SSL)图形神经网络(GNNS)模型,PT-GNN,预先列出GNN模型以重建冷启动嵌入,并为冷启动推荐表示了很大的潜力。然而,由于过平滑的问题,PT-GNN只能捕获多达3阶关系,这不能提供许多有用的辅助信息来描绘目标冷启动用户或项目。此外,嵌入重建任务仅考虑用户和项目的子图内的相关性,同时忽略不同子图之间的相关间。为解决上述挑战,我们提出了一种基于多策略的冷启动推荐(MPT)的预训练方法,它从模型架构和借口任务的角度扩展了PT-GNN,以提高冷启动推荐性能。具体地,在模型架构方面,除了由GNN编码器捕获的用户和项目的短程依赖性之外,我们还引入变压器编码器以捕获远程依赖性。在借口任务方面,除了通过嵌入重建任务考虑用户和项目的相关性,我们还添加了嵌入对比学习任务以捕获用户和项目的相关性。我们在元学习设置下培训GNN和变压器编码,在这些借口任务下,以模拟真实的冷启动方案,使模型轻松迅速,适应新的冷启动用户和项目。三个公共推荐数据集的实验显示了对Vanilla GNN模型的提议MPT模型的优势,预先培训了用户/项目嵌入推断和推荐任务的GNN模型。
translated by 谷歌翻译
To offer accurate and diverse recommendation services, recent methods use auxiliary information to foster the learning process of user and item representations. Many SOTA methods fuse different sources of information (user, item, knowledge graph, tags, etc.) into a graph and use Graph Neural Networks to introduce the auxiliary information through the message passing paradigm. In this work, we seek an alternative framework that is light and effective through self-supervised learning across different sources of information, particularly for the commonly accessible item tag information. We use a self-supervision signal to pair users with the auxiliary information associated with the items they have interacted with before. To achieve the pairing, we create a proxy training task. For a given item, the model predicts the correct pairing between the representations obtained from the users that have interacted with this item and the assigned tags. This design provides an efficient solution, using the auxiliary information directly to enhance the quality of user and item embeddings. User behavior in recommendation systems is driven by the complex interactions of many factors behind the decision-making processes. To make the pairing process more fine-grained and avoid embedding collapse, we propose an intent-aware self-supervised pairing process where we split the user embeddings into multiple sub-embedding vectors. Each sub-embedding vector captures a specific user intent via self-supervised alignment with a particular cluster of tags. We integrate our designed framework with various recommendation models, demonstrating its flexibility and compatibility. Through comparison with numerous SOTA methods on seven real-world datasets, we show that our method can achieve better performance while requiring less training time. This indicates the potential of applying our approach on web-scale datasets.
translated by 谷歌翻译
与传统的协作过滤方法相比,图表卷积网络可以明确地模拟用户 - 项目二分类图的节点之间的交互,并有效地使用高阶邻居,这使得图形神经网络能够获得更有效的嵌入品以获得推荐,例如推荐作为ngcf和lightgcn。然而,其表示非常易于相互作用的噪音。在响应这个问题时,SGL探讨了用户项目图上的自我监督学习,以提高GCN的鲁棒性。虽然有效,但我们发现SGL直接适用SIMCLR的比较学习框架。此框架可能不会直接适用于推荐系统的场景,并且没有充分考虑用户项交互的不确定性。在这项工作中,我们的目标是考虑充分建议制度的情景中对比学习的应用,使其更适合推荐任务。我们提出了一个监督的对比学习框架来预先列出用户项目二分钟图,然后微调图形卷积神经网络。具体而言,我们将在数据预处理期间比较用户和项目之间的相似性,然后在应用对比学习时,不仅将增强视图视为正样本,而且还将被视为正样品的一定数量的类似样品。 ,这与SIMCLR不同,他们以批量作为阴性样品处理其他样本。我们将这种学习方法术语定期为监督对比学习(SCL)并将其应用于最先进的LightGCN。另外,为了考虑节点交互的不确定性,我们还提出了一种新的数据增强方法,称为节点复制。
translated by 谷歌翻译
跨域推荐(CDR)可以帮助客户在不同域中找到更多令人满意的项目。现有的CDR模型主要使用普通用户或映射功能作为域之间的桥梁,但在充分利用跨域的额外知识方面的探索非常有限。在本文中,我们建议将CDR的知识图(kg)纳入,这使不同领域中的项目能够共享知识。为此,我们首先从Freebase KG构建了一个新的数据集AmazonKG4CDR和Amazon评论数据的一个子集(两个域对:电影音乐,电影书籍)。这个新的数据集有助于将知识与CDR内部和跨域项目桥接。然后,我们提出了一个新的框架,KG感知的神经集体矩阵分解(KG-NEUCMF),利用KG来丰富项目表示。它首先通过图形卷积自动编码器学习项目嵌入,以从kg中的相邻和高阶邻居中捕获域特异性和域一般知识。然后,我们最大程度地提高了从kg和用户项目矩阵中学到的项目嵌入之间的共同信息,以建立跨域关系以获得更好的CDR。最后,我们对新建的数据集进行了广泛的实验,并证明我们的模型明显优于表现最佳的基线。
translated by 谷歌翻译
Top-K建议是推荐系统中的一个基本任务,通常通过比较积极和负对对学习。对比损失(CL)是最近受到更多关注的对比学习的关键,我们发现它非常适合Top-K建议。但是,这是一个问题,即CL处理正面和阴性样本的重要性。一方面,CL面向一个正样品的不平衡问题和许多阴性样品。另一方面,稀疏的数据集中很少有稀疏项目应该强调他们的重要性。此外,其他重要问题是稀疏正项目仍然没有充分利用建议。因此,我们通过使用CL损耗功能同时使用多个正项目(或样本)来提出新的数据增强方法。因此,我们提出了一种基于多样的对比损失(MSCL)功能,通过平衡正面和负样本和数据增强的重要性来解决两个问题。基于图表卷积网络(GCN)方法,实验结果表明了MSCL的最先进的性能。所提出的MSCL很简单,可以在许多方法中应用。我们将在验收时发布GitHub上的代码。
translated by 谷歌翻译
包括传统浅层模型和深图神经网络(GNN)在内的图形嵌入方法已导致有希望的应用。然而,由于其优化范式,浅层模型尤其是基于随机步行的算法无法充分利用采样子图或序列中的邻居接近度。基于GNN的算法遇到了高阶信息的利用不足,在堆叠过多的层时很容易引起过度平滑的问题,这可能会恶化低度(长尾)项目的建议,从而限制了表现力和可伸缩性。在本文中,我们提出了一个新颖的框架SAC,即空间自动回归编码,以统一的方式解决上述问题。为了充分利用邻居接近和高级信息,我们设计了一种新型的空间自回旋范式。具体而言,我们首先随机掩盖了多跳的邻居,并通过以明确的多跳上注意来整合所有其他周围的邻居来嵌入目标节点。然后,我们加强模型,通过对比编码和蒙面邻居的嵌入来学习目标节点的邻居预测性编码,并配备了新的硬性阴性采样策略。为了了解目标到邻居预测任务的最小足够表示并删除邻居的冗余,我们通过最大化目标预测性编码和蒙面邻居的嵌入以及同时约束编码之间的相互信息来设计邻居信息瓶颈和周围的邻居的嵌入。公共推荐数据集和实际方案网络规模数据集Douyin-Friend-Recormendation的实验结果证明了SAC的优势与最先进的方法相比。
translated by 谷歌翻译
顺序推荐(SR)通过对用户在项目之间的过境方式进行建模来表征用户行为不断发展的模式。但是,简短的交互序列限制了现有SR的性能。为了解决这个问题,我们专注于本文中的跨域顺序推荐(CDSR),该建议旨在利用其他域中的信息来提高单个域的顺序建议性能。解决CDSR具有挑战性。一方面,如何保留单个领域的偏好以及整合跨域影响仍然是一个基本问题。另一方面,由于合并序列的长度有限,因此仅利用来自其他域的知识来完全解决数据稀疏问题。为了应对挑战,我们提出了DDGHM,这是CDSR问题的新型框架,其中包括两个主要模块,即双动态图形建模和混合度量训练。前者通过动态构造两级图,即局部图和全局图,捕获内域和域间顺序跃迁,并将它们与融合的细心门控机制结合在一起。后者通过采用混合度量学习来增强用户和项目表示形式,包括实现保持一致性和对比度度量的协作指标,以确保均匀性,以进一步减轻数据稀少性问题并提高预测准确性。我们在两个基准数据集上进行实验,结果证明了DDHMG的有效性。
translated by 谷歌翻译
协作过滤(CF)被广泛用于学习用户和从观察到的交互中的项目的信息潜在表示。现有的基于CF的方法通常采用负面抽样来区分不同的项目。在大型数据集上进行负抽样的培训在计算上是昂贵的。此外,应在定义的分布下仔细地对负项目进行采样,以避免在训练数据集中选择观察到的正面项目。不可避免地,在测试集中,从训练数据集中采样的一些负面项目可能是正面的。在本文中,我们提出了一个自我监督的协作过滤框架(SEXTCF),该框架是专门设计的,用于具有隐式反馈的推荐方案。提出的SEXTCF框架简化了暹罗网络,可以轻松地应用于现有的基于深度学习的CF模型,我们称之为骨干网络。 SEXCF的主要思想是增强主链网络生成的输出嵌入,因为它不可避免地增加了用户/项目ID的原始输入。我们建议并研究三种输出扰动技术,可以应用于不同类型的骨干网络,包括传统CF模型和基于图的模型。该框架使学习用户和项目的信息表示无效样本的信息表示,并且对封装的骨干不可知。我们在四个数据集上进行了全面的实验,以表明我们的框架可以比以2 $ \ times $ -4 $ \ times $ $更快的训练速度实现更高的建议准确性。我们还表明,与自我监督的框架Buir相比,SEXCF平均可以提高准确性高达17.79%。
translated by 谷歌翻译
近年来,由于图表代表学习的出色表现,图形神经网络(GNN)技术在许多真实情景中获得了相当大的兴趣,例如推荐系统和社交网络。在推荐系统中,主要挑战是从其互动中学习有效的用户/项目表示。但是,由于它们对数据集和评估度量的差异,比较使用GNNS用于推荐系统的GNN的许多出版物。此外,其中许多只提供了一个演示,以对小型数据集进行实验,这很远可在现实世界推荐系统中应用。为了解决这个问题,我们介绍了Graph4Rec,这是一个Universal Toolkit,它统一地将GNN模型培训到以下部分:图表输入,随机步行生成,自我图形生成,对生成和GNNS选择。从这个训练管道,可以通过一些配置轻松建立自己的GNN模型。此外,我们开发了一个大规模的图形引擎和参数服务器,以支持分布式GNN培训。我们进行系统和全面的实验,以比较不同GNN模型在不同规模中的若干场景中的性能。证明了广泛的实验以识别GNN的关键组分。我们还尝试弄清楚稀疏和密集的参数如何影响GNN的性能。最后,我们研究了包括负面采样,自我图形建设顺序和温暖开始策略的方法,以找到更有效和高效的GNNS在推荐系统上做法。我们的工具包基于PGL HTTPS://github.com/paddlePaddle/pgl,并且在https://github.com/paddlepaddle/pgl/tree/main/apps/graph4rec中打开代码。
translated by 谷歌翻译
跨域冷启动推荐是推荐系统越来越新兴的问题。现有的作品主要专注于解决跨域用户推荐或冷启动内容推荐。但是,当新域在早期发展时,它具有类似于源域的潜在用户,但互动较少。从源域中学习用户的偏好并将其转移到目标域中是至关重要的,特别是在具有有限用户反馈的新到达内容上。为了弥合这一差距,我们提出了一个自训练的跨域用户偏好学习(夫妻)框架,针对具有各种语义标签的冷启动推荐,例如视频的项目或视频类型。更具体地,我们考虑三个级别的偏好,包括用户历史,用户内容和用户组提供可靠的推荐。利用由域感知顺序模型表示的用户历史,将频率编码器应用于用于用户内容偏好学习的底层标记。然后,建议具有正交节点表示的分层存储器树以进一步概括域域的用户组偏好。整个框架以一种对比的方式更新,以先进先出(FIFO)队列获得更具独特的表示。两个数据集的广泛实验展示了用户和内容冷启动情况的夫妇效率。通过部署在线A / B一周测试,我们表明夫妇的点击率(CTR)优于淘宝应用程序的其他基线。现在该方法在线为跨域冷微视频推荐服务。
translated by 谷歌翻译
对于推荐系统来说,长期存在的数据稀疏性和冷启动构成了棘手和困惑的问题。通过利用来自多个领域的信息来利用信息,已利用跨域建议作为域适应框架有效解决这些具有挑战性的问题。在这项研究中,探索了项目级相关性跨域建议任务,其中两个相关域,即源和目标域包含常见项目,而无需共享有关用户行为的敏感信息,从而避免了泄漏用户隐私。鉴于这种情况,提出了两种基于自动编码器的新型自动编码器的深度学习方法,以供跨域推荐。第一种方法旨在同时学习一对自动编码器,以揭示源和目标域中项目的内在表示,以及一个耦合的映射函数,以建模这些表示形式之间的非线性关系,从而将有益信息从目标域的源。第二种方法是基于新的联合正规化优化问题得出的,该问题采用了两个自动编码器以深层和非线性的方式生成用户和项目局限性因素,同时也学会了数据驱动的功能来映射跨域的项目范围因素。与几个最先进的跨域推荐框架相比,对两个公开基准数据集进行了大量的数值实验,说明了我们提出的方法的出色性能。
translated by 谷歌翻译
近年来,多媒体推荐的兴趣日益增长,旨在预测用户是否会与具有多模式内容的项目进行交互。以前的研究侧重于建模用户项目与包含作为侧面信息的多模式特征的交互。但是,该方案并不适用于多媒体推荐。首先,只有通过高阶项 - 用户项共同发生隐含地建模协作项目 - 项目关系。我们认为这些多模式内容的潜在语义项 - 项目结构可以有利于学习更好的项目表示,并协助推荐模型全面发现候选项目。其次,以前的研究忽视了细粒度的多峰融合。虽然访问多种方式可能允许我们捕获丰富的信息,但我们认为以前的工作中的线性组合或连接的简单粗粒融合不足以完全理解内容信息和项目关系。在此结束时,我们提出了一个潜在的结构采用对比模型融合方法(微型简洁性)。具体而言,我们设计了一种新型的模态感知结构学习模块,它为每个模态学习项目项目关系。基于学习的模态感知潜在项目关系,我们执行明确地将物品关联的图形卷评进行了模当感知的项目表示。然后,我们设计一种新颖的对比方法来保险熔断多模峰特征。这些丰富的项目表示可以插入现有的协作过滤方法,以便更准确的建议。关于现实世界数据集的广泛实验证明了我们在最先进的基线上的方法的优越性。
translated by 谷歌翻译
图形神经网络(GNN)已显示为与用户项目交互图建模的协作过滤(CF)的有前途的解决方案。现有基于GNN的推荐系统的关键思想是递归执行沿用户项目交互边缘传递的消息,以完善编码的嵌入。然而,尽管它们有效,但当前的大多数推荐模型都依赖于足够和高质量的培训数据,因此学习的表示形式可以很好地捕获准确的用户偏好。用户行为数据在许多实际建议方案中通常很嘈杂,并且表现出偏斜的分布,这可能会导致基于GNN的模型中的次优表示性能。在本文中,我们提出了SHT,这是一种新颖的自我监视的超盖变压器框架(SHT),该框架(SHT)通过以明确的方式探索全球协作关系来增强用户表示。具体而言,我们首先赋予图形神经CF范式,以通过HyperGraph Transformer网络维护用户和项目之间的全局协作效果。在蒸馏的全球环境中,提出了一个跨视图生成的自我监督学习组件,用于对用户项目交互图的数据增强,以增强推荐系统的鲁棒性。广泛的实验表明,SHT可以显着改善各种最新基线的性能。进一步的消融研究表明,我们的SHT推荐框架在减轻数据稀疏性和噪声问题方面具有出色的表示能力。源代码和评估数据集可在以下网址获得:https://github.com/akaxlh/sht。
translated by 谷歌翻译
Graph structure learning (GSL), which aims to learn the adjacency matrix for graph neural networks (GNNs), has shown great potential in boosting the performance of GNNs. Most existing GSL works apply a joint learning framework where the estimated adjacency matrix and GNN parameters are optimized for downstream tasks. However, as GSL is essentially a link prediction task, whose goal may largely differ from the goal of the downstream task. The inconsistency of these two goals limits the GSL methods to learn the potential optimal graph structure. Moreover, the joint learning framework suffers from scalability issues in terms of time and space during the process of estimation and optimization of the adjacency matrix. To mitigate these issues, we propose a graph structure refinement (GSR) framework with a pretrain-finetune pipeline. Specifically, The pre-training phase aims to comprehensively estimate the underlying graph structure by a multi-view contrastive learning framework with both intra- and inter-view link prediction tasks. Then, the graph structure is refined by adding and removing edges according to the edge probabilities estimated by the pre-trained model. Finally, the fine-tuning GNN is initialized by the pre-trained model and optimized toward downstream tasks. With the refined graph structure remaining static in the fine-tuning space, GSR avoids estimating and optimizing graph structure in the fine-tuning phase which enjoys great scalability and efficiency. Moreover, the fine-tuning GNN is boosted by both migrating knowledge and refining graphs. Extensive experiments are conducted to evaluate the effectiveness (best performance on six benchmark datasets), efficiency, and scalability (13.8x faster using 32.8% GPU memory compared to the best GSL baseline on Cora) of the proposed model.
translated by 谷歌翻译