基于会话的推荐系统(SBRS)表现出优于常规方法的性能。但是,它们在大规模工业数据集上显示出有限的可伸缩性,因为大多数模型都会学习一个嵌入每个项目。这导致了巨大的记忆要求(每项存储一个矢量),并且在稀疏的会话上具有冷启动或不受欢迎的项目的性能差。使用一个公共和一个大型工业数据集,我们在实验上表明,最先进的SBRS在稀疏项目的稀疏会议上的性能较低。我们提出了M2TREC,这是一种基于会话建议的元数据感知的多任务变压器模型。我们提出的方法学习了从项目元数据到嵌入的转换函数,因此是免费的(即,不需要学习一个嵌入每个项目)。它集成了项目元数据以学习各种项目属性的共享表示。在推论期间,将为与先前在培训期间观察到的项目共享的属性分配新的或不受欢迎的项目,因此将与这些项目具有相似的表示,从而使甚至冷启动和稀疏项目的建议。此外,M2TREC接受了多任务设置的培训,以预测会话中的下一个项目及其主要类别和子类别。我们的多任务策略使该模型收敛更快,并显着改善了整体性能。实验结果表明,使用我们在两个数据集中稀疏项目上提出的方法进行了显着的性能增长。
translated by 谷歌翻译
基于会话的建议系统在会话中捕获用户的短期兴趣。会话上下文(即,会话中用户在会话中的高级兴趣或意图)在大多数数据集中都没有明确给出,并且隐式推断会话上下文作为项目级属性的汇总是粗略的。在本文中,我们提出了ISCON,该ISCON隐含地将会议上下文化。ISCON首先通过创建会话信息图,学习图嵌入和聚类来为会话生成隐式上下文,以将会话分配给上下文。然后,ISCON训练会话上下文预测器,并使用预测上下文的嵌入来增强下一项目的预测准确性。四个数据集的实验表明,ISCON比最新模型具有优越的下一项目预测准确性。REDDIT数据集中的ISCON的案例研究证实,分配的会话上下文是独特而有意义的。
translated by 谷歌翻译
A large number of empirical studies on applying self-attention models in the domain of recommender systems are based on offline evaluation and metrics computed on standardized datasets, without insights on how these models perform in real life scenarios. Moreover, many of them do not consider information such as item and customer metadata, although deep-learning recommenders live up to their full potential only when numerous features of heterogeneous types are included. Also, typically recommendation models are designed to serve well only a single use case, which increases modeling complexity and maintenance costs, and may lead to inconsistent customer experience. In this work, we present a reusable Attention-based Fashion Recommendation Algorithm (AFRA), that utilizes various interaction types with different fashion entities such as items (e.g., shirt), outfits and influencers, and their heterogeneous features. Moreover, we leverage temporal and contextual information to address both short and long-term customer preferences. We show its effectiveness on outfit recommendation use cases, in particular: 1) personalized ranked feed; 2) outfit recommendations by style; 3) similar item recommendation and 4) in-session recommendations inspired by most recent customer actions. We present both offline and online experimental results demonstrating substantial improvements in customer retention and engagement.
translated by 谷歌翻译
为了开发有效的顺序推荐人,提出了一系列序列表示学习(SRL)方法来模拟历史用户行为。大多数现有的SRL方法都依赖于开发序列模型以更好地捕获用户偏好的明确项目ID。尽管在某种程度上有效,但由于通过明确建模项目ID的限制,这些方法很难转移到新的建议方案。为了解决这个问题,我们提出了一种新颖的通用序列表示方法,名为UNISREC。提出的方法利用项目的文本在不同的建议方案中学习可转移表示形式。为了学习通用项目表示形式,我们设计了一个基于参数美白和Experts的混合物增强的适配器的轻巧项目编码体系结构。为了学习通用序列表示,我们通过抽样多域负面因素介绍了两个对比的预训练任务。借助预训练的通用序列表示模型,我们的方法可以在电感或跨传导设置下以参数有效的方式有效地传输到新的推荐域或平台。在现实世界数据集上进行的广泛实验证明了该方法的有效性。尤其是,我们的方法还导致跨平台环境中的性能提高,显示了所提出的通用SRL方法的强可传递性。代码和预培训模型可在以下网址获得:https://github.com/rucaibox/unisrec。
translated by 谷歌翻译
跨域建议可以帮助缓解传统的连续推荐系统中的数据稀疏问题。在本文中,我们提出了Recguru算法框架,以在顺序推荐中生成包含跨域的用户信息的广义用户表示,即使在两个域中的最小或没有公共用户时也是如此。我们提出了一种自我细心的AutoEncoder来导出潜在用户表示,以及域鉴别器,其旨在预测所产生的潜在表示的原点域。我们提出了一种新的逆势学习方法来训练两个模块,以使从不同域生成的用户嵌入到每个用户的单个全局Gur。学习的Gur捕获了用户的整体偏好和特征,因此可以用于增强行为数据并改进在涉及用户的任何单个域中的推荐。在两个公共交叉域推荐数据集以及从现实世界应用程序收集的大型数据集进行了广泛的实验。结果表明,Recguru提高了性能,优于各种最先进的顺序推荐和跨域推荐方法。收集的数据将被释放以促进未来的研究。
translated by 谷歌翻译
用户嵌入(用户的矢量化表示)对于推荐系统至关重要。已经提出了许多方法来为用户构建代表性,以找到用于检索任务的类似项目,并且已被证明在工业推荐系统中也有效。最近,人们发现使用多个嵌入式代表用户的能力,希望每个嵌入代表用户对某个主题的兴趣。通过多息表示,重要的是要对用户对不同主题的喜好进行建模以及偏好如何随时间变化。但是,现有方法要么无法估算用户对每个利息的亲和力,要么不合理地假设每个用户的每一个利息随时间而逐渐消失,从而损害了候选人检索的召回。在本文中,我们提出了多功能偏好(MIP)模型,这种方法不仅可以通过更有效地使用用户的顺序参与来为用户产生多种利益因此,可以按比例地从每个利息中检索候选人。在各种工业规模的数据集上进行了广泛的实验,以证明我们方法的有效性。
translated by 谷歌翻译
下一篮子推荐考虑将一组项目推荐到用户将作为一个整体购买的下一个篮子。在本文中,我们为下一个篮子推荐开发了一种具有偏好,普及和转换(M2)的新颖混合模型。该方法在下一个篮子生成过程中模拟了三个重要因素:1)用户在项目中的“全球偏好”,2)项目的“全球受欢迎者和3”的过渡模式。与现有的基于内部网络的方法不同,M2不使用复杂的网络来模拟项目之间的转换,或为用户生成嵌入品。相反,它具有基于简单的编码器解码器的方法(ED-Trans),以更好地模拟项目之间的转换模式。我们将M2与不同组合的组合进行了比较,其中有5个现有的下一篮子推荐方法在4个公共基准数据集上推荐第一个,第二和第三篮子。我们的实验结果表明,M2显着优于所有任务中所有数据集的最先进的方法,提高了高达22.1%。此外,我们的消融研究表明,在推荐性能方面,ED-Trans比经常性神经网络更有效。我们还对下一个篮子推荐评估进行了彻底讨论了各种实验协议和评估指标。
translated by 谷歌翻译
预测短期交互会话的下一个交互是基于会话的推荐中的一个具有挑战性的任务。几乎所有现有的作品都依赖于项目转换模式,并在建模用户偏好时忽略用户历史会话的影响,这通常会导致非个性化推荐。此外,基于现有的个性化会话的推荐人仅基于当前用户的会话捕获用户首选项,而是忽略来自其他用户的历史会话的有用物品转换模式。为了解决这些问题,我们提出了一种新颖的异构全球图形神经网络(HG-GNN)以以微妙的方式利用所有会话的物品过渡,以便更好地推断用户偏好与当前和历史会话。为了有效利用所有用户的所有会话转换,我们提出了一种新的异构全局图,该图包含会话,用户项交互和全局共同发生项目的项目转换。此外,为了综合地从会话中捕获用户偏好,我们建议通过两个图形增强偏好编码器学习来自全局图的两个用户表示。具体地,我们在异构全球图上设计一种新的异构图形神经网络(HGNN),以了解具有丰富语义的长期用户偏好和项目表示。基于HGNN,我们提出了当前偏好编码器和历史偏好编码器,分别捕获来自当前和历史会话的不同级别的用户偏好。为实现个性化建议,我们将用户当前偏好和历史利益的表示集成到生成最终用户首选项表示。三个真实数据集的广泛实验结果表明,我们的模型优于其他最先进的方法。
translated by 谷歌翻译
推荐兴趣点是一个困难的问题,需要从基于位置的社交媒体平台中提取精确的位置信息。对于这种位置感知的推荐系统而言,另一个具有挑战性和关键的问题是根据用户的历史行为对用户的偏好进行建模。我们建议使用Transformers的双向编码器表示的位置感知建议系统,以便为用户提供基于位置的建议。提出的模型包含位置数据和用户偏好。与在序列中预测每个位置的下一项(位置)相比,我们的模型可以为用户提供更相关的结果。基准数据集上的广泛实验表明,我们的模型始终优于各种最新的顺序模型。
translated by 谷歌翻译
受到计算机愿景和语言理解的深度学习的巨大成功的影响,建议的研究已经转移到发明基于神经网络的新推荐模型。近年来,我们在开发神经推荐模型方面目睹了显着进展,这概括和超越了传统的推荐模型,由于神经网络的强烈代表性。在本调查论文中,我们从建议建模与准确性目标的角度进行了系统审查,旨在总结该领域,促进研究人员和从业者在推荐系统上工作的研究人员和从业者。具体而具体基于推荐建模期间的数据使用,我们将工作划分为协作过滤和信息丰富的建议:1)协作滤波,其利用用户项目交互数据的关键来源; 2)内容丰富的建议,其另外利用与用户和项目相关的侧面信息,如用户配置文件和项目知识图; 3)时间/顺序推荐,其考虑与交互相关的上下文信息,例如时间,位置和过去的交互。在为每种类型审查代表性工作后,我们终于讨论了这一领域的一些有希望的方向。
translated by 谷歌翻译
基于会话的建议(SBRS)从会话中捕获项目的依赖项,以推荐下一个项目。近年来,基于图形神经网络(GNN)的SBR已成为SBR的主流,从而受益于GNN在建模复杂依赖性中的优越性。基于对相邻依赖关系的强烈假设,在大多数基于GNN的SBR中,会话中的任何两个相邻项目都必须取决于。但是,我们认为,由于用户行为的不确定性和复杂性,邻接不一定表明依赖性。但是,上述假设并不总是在实际的建议方案中存在,因此它很容易导致两个缺点:(1)会话中发生错误的依赖性,因为存在相邻但没有真正依赖的项目,以及(2)true缺失依赖关系发生在会话中,因为存在非贴种但实际上依赖的项目。这些缺点显着影响项目表示学习,从而降低了下游建议性能。为了解决这些缺陷,我们提出了一种新颖的评论精制的项目间图神经网络(RI-GNN),该图案利用从项目评论中提取的主题信息来改善项目之间的依赖性。两个公共现实世界数据集的实验表明,RI-GNN的表现优于SOTA方法。
translated by 谷歌翻译
基于会话的推荐系统通过使用短期匿名会话建模用户行为和偏好来建立对用户的相关项目。现有方法利用图形神经网络(GNNS)传播和聚合来自邻居节点的信息I.E.,本地消息传递。这种基于图形的架构具有代表性限制,因为单个子图易于过度填写顺序依赖,而不是考虑不同会话中的项目之间的复杂转换。我们提出了一种新的技术,使变压器与目标关节GNN结合使用。这允许学习更丰富的表示,与Vanilla目标注意GNN相比,这转化为经验性能提升。我们的实验结果和消融表明,我们的建议方法与现有的现实世界基准数据集的现有方法具有竞争力,从而改善了基于图形的假设。代码在https://github.com/the-learning-machines/sbr
translated by 谷歌翻译
捆绑式推荐系统向用户推荐一组物品(例如裤子,衬衫和鞋子),但他们经常遇到两个问题:重大的互动稀疏性和大型输出空间。在这项工作中,我们扩展了多轮对话建议(MCR)以减轻这些问题。 MCR是使用对话范式通过询问标签(例如类别或属性)的用户偏好来引起用户兴趣的MCR,并在多个回合中处理用户反馈,是一个新兴的建议设置,以获取用户反馈并缩小输出空间,但具有缩小的输出空间没有在捆绑建议的背景下探索。在这项工作中,我们提出了一个名为Bundle MCR的新颖推荐任务。我们首先提出了一个新框架,以将MCR作为Markov决策过程(MDP),其中有多个代理,用于用户建模,咨询和反馈处理。在此框架下,我们向(1)推荐项目,(2)提出问题和(3)基于捆绑感的对话状态来管理对话。此外,要有效地训练Bunt,我们提出了两阶段的培训策略。在离线预训练阶段,Bunt使用多个披肩任务进行训练,以模仿对话中的捆绑互动。然后,在在线微调阶段,用户交互增强了Bunt代理。我们在多个离线数据集以及人类评估上进行的实验显示了将MCR框架扩展到捆绑设置的价值以及我们的Bunt设计的有效性。
translated by 谷歌翻译
Session-Based Recommenders (SBRs) aim to predict users' next preferences regard to their previous interactions in sessions while there is no historical information about them. Modern SBRs utilize deep neural networks to map users' current interest(s) during an ongoing session to a latent space so that their next preference can be predicted. Although state-of-art SBR models achieve satisfactory results, most focus on studying the sequence of events inside sessions while ignoring temporal details of those events. In this paper, we examine the potential of session temporal information in enhancing the performance of SBRs, conceivably by reflecting the momentary interests of anonymous users or their mindset shifts during sessions. We propose the STAR framework, which utilizes the time intervals between events within sessions to construct more informative representations for items and sessions. Our mechanism revises session representation by embedding time intervals without employing discretization. Empirical results on Yoochoose and Diginetica datasets show that the suggested method outperforms the state-of-the-art baseline models in Recall and MRR criteria.
translated by 谷歌翻译
我们的目标是为阿里巴巴业务的每个用户和每个产品项目建立一般代表性(嵌入),包括淘宝和Tmall,这是世界上最大的电子商务网站之一。用户和项目的代表性在各种下游应用程序中发挥着关键作用,包括建议系统,搜索,营销,需求预测等。受到自然语言处理(NLP)域中的BERT模型的启发,我们提出了GUIM(与代表的混合物混合在一起)的GUIM(一般用户项目),以实现大量,结构化的多模式数据,包括数亿美元的相互作用用户和项目。我们利用表示(MOR)的混合物作为一种新颖的表示形式来建模每个用户的各种兴趣。此外,我们使用对比度学习中的Infonce,以避免由于众多词汇的大小(令牌)词汇大小,因此避免了棘手的计算成本。最后,我们建议一组代表性的下游任务作为标准基准,以评估学到的用户和/或项目嵌入的质量,类似于NLP域中的胶合基准。我们在这些下游任务中的实验结果清楚地表明了从GUIM模型中学到的嵌入的比较价值。
translated by 谷歌翻译
对于许多在线平台(例如,视频共享网站,电子商务系统),学习动态用户的偏好已成为越来越重要的组成部分,以提出顺序建议。先前的工作已经做出了许多努力,以基于各种体系结构(例如,经常性的神经网络和自我注意机制)对用户交互序列进行建模项目项目过渡。最近出现的图形神经网络还用作有用的骨干模型,可在顺序推荐方案中捕获项目依赖性。尽管它们有效,但现有的方法却远远集中在具有单一相互作用类型的项目序列表示上,因此仅限于捕获用户和项目之间的动态异质关系结构(例如,页面视图,添加最佳选择,购买,购买)。为了应对这一挑战,我们设计了多行为超毛力增强的变压器框架(MBHT),以捕获短期和长期跨型行为依赖性。具体而言,多尺度变压器配备了低级别的自我注意力,可从细粒度和粗粒水平的共同编码行为感知的顺序模式。此外,我们将全局多行为依赖性纳入HyperGraph神经体系结构中,以自定义的方式捕获层次长期项目相关性。实验结果证明了我们MBHT在不同环境中的各种最新推荐解决方案的优势。进一步的消融研究证明了我们的模型设计和新MBHT框架的好处的有效性。我们的实施代码在以下网址发布:https://github.com/yuh-yang/mbht-kdd22。
translated by 谷歌翻译
由于知识图表提供的丰富信息,基于路径的可解释的推荐系统的最新进展引起了更大的关注。最现有的可解释的建议仅利用静态知识图表并忽略动态用户项演进,导致不太令人信服和不准确的解释。虽然有一些作品,但意识到建模用户的时间顺序行为可以提高推荐器系统的性能和解释性,其中大多数只关注用户在路径内的顺序交互或独立和单独的推荐机制。在本文中,我们提出了一种新颖的时间元路径指导可解释的推荐利用加强学习(TMER-RL),它利用了连续项目之间的加强项 - 项目路径建模,其注意机制在动态知识图上顺序模拟动态用户项演进用于解释的建议。与使用繁重的经常性神经网络模拟时间信息的现有作品相比,我们提出了简单但有效的神经网络,以捕获用户的历史项目功能和基于路径的上下文,以表征下一个购买的项目。与最近的强大基线相比,两个真实数据集的TMMER广泛评估显示了最先进的表现。
translated by 谷歌翻译
在点击率(CTR)预测方案中,用户的顺序行为很好地利用来捕获最近文献中的用户兴趣。然而,尽管正在广泛研究,但这些顺序方法仍然存在三个限制。首先,现有方法主要利用对用户行为的注意,这并不总是适用于CTR预测,因为用户经常点击与任何历史行为无关的新产品。其次,在真实场景中,很久以前存在许多具有运营的用户,但最近的次数相对不活跃。因此,难以通过早期行为精确地捕获用户的当前偏好。第三,不同特征子空间中用户历史行为的多个表示主要被忽略。为了解决这些问题,我们提出了一种多互动关注网络(Mian),全面提取各种细粒度特征之间的潜在关系(例如,性别,年龄和用户档案)。具体而言,MIAN包含多交互式层(MIL),其集成了三个本地交互模块,通过顺序行为捕获用户偏好的多个表示,并同时利用细粒度的用户特定的以及上下文信息。此外,我们设计了一个全局交互模块(GIM)来学习高阶交互,平衡多个功能的不同影响。最后,脱机实验结果来自三个数据集,以及在大型推荐系统中的在线A / B测试,展示了我们提出的方法的有效性。
translated by 谷歌翻译
基于多利息框架的顺序推荐将用户最近的交互序列模拟到多个不同的兴趣向量中,因为单个低维向量不能完全代表用户兴趣的分集。然而,大多数现有模型只拦截用户最近的交互行为作为训练数据,丢弃大量的历史相互作用序列。这可能会提出两个问题。一方面,缺少反映用户多重兴趣的数据;另一方面,历史用户项交互中的项目之间的共同发生不会完全探索。为了解决这两个问题,本文提出了一种名为“全局交互感知多息框架的新型顺序推荐模型,用于顺序推荐(Gimirec)”。具体地,首先提出了一种全局上下文提取模块而不引入任何外部信息,该外部信息基于每个项目对的受约束的共生发生号码和它们的时间间隔从所有用户的历史交互序列的时间间隔计算加权共生发生矩阵通过使用简化的图形卷积获得每个项目的全局上下文嵌入。其次,捕获每个项目对最近的每个用户的交互序列的时间间隔并与全局上下文项嵌入以获取个性化项目嵌入的全局上下文项。最后,应用了一种基于自我关注的多息框架来学习用户对顺序推荐的不同兴趣。在亚马逊书籍的三个现实世界数据集上进行了广泛的实验,淘宝买和亚马逊 - 混合动力表明,Gimirec在召回,NDCG和命中率指标上的表现明显优于最先进的方法。此外,所提出的全局上下文提取模块可以很容易地移植到大多数顺序推荐模型。
translated by 谷歌翻译
关于点击率(CTR)预测的最新研究通过对更长的用户行为序列进行建模,已达到新的水平。除其他外,两阶段的方法是用于工业应用的最先进的解决方案(SOTA)。两阶段方法首先训练检索模型,以事先截断长行为序列,然后使用截短序列训练CTR模型。但是,检索模型和CTR模型是分别训练的。因此,CTR模型中检索到的子序列不准确,它降低了最终性能。在本文中,我们提出了一个端到端范式来建模长行为序列,与现有模型相比,该序列能够实现卓越的性能以及出色的成本效益。我们的贡献是三倍:首先,我们提出了一个名为ETA-NET的基于哈希的有效目标(TA)网络,以基于低成本的位置操作来启用端到端的用户行为检索。提出的ETA-NET可以通过顺序数据建模的数量级来降低标准TA的复杂性。其次,我们建议将通用系统体系结构作为一种可行的解决方案,用于在工业系统上部署ETA-NET。特别是,与SOTA两阶段方法相比,ETA-NET已部署在TAOBAO的推荐系统上,并在CTR上带来了1.8%的升降机和3.1%的升降机(GMV)。第三,我们在离线数据集和在线A/B测试上进行了广泛的实验。结果证明,在CTR预测性能和在线成本效益方面,所提出的模型大大优于现有的CTR模型。 ETA-NET现在为TAOBAO的主要流量提供服务,每天为数亿用户提供服务。
translated by 谷歌翻译