已经提出了许多基于神经内容的新闻建议的模型。但是,对此类系统的三个主要组成部分(新闻编码器,用户编码和评分功能)和所涉及的权衡的相对重要性的了解有限。在本文中,我们评估了以下假设:匹配用户和候选新闻表示的最广泛使用的方法不够表达。我们允许我们的系统通过评估更具表现力的评分功能来建模两者之间的更复杂的关系。在广泛的基线和建立的系统中,这会导致AUC中约6分的一致改进。我们的结果还表明,新闻编码器的复杂性与评分功能之间的权衡:一个相当简单的基线模型在思维数据集中得分远高于68%的AUC,并且在已发布的最新艺术品的2点范围内,而同时也是如此。需要一小部分计算成本。
translated by 谷歌翻译
基于会话的新闻推荐系统将下一个新闻推荐给用户,通过建模她/他在会话中嵌入的一系列新闻读/点击的潜在兴趣。通常,用户的兴趣是多种多样的,即有多种兴趣,与不同类型的新闻相对应,例如在会话中,有关独特主题的新闻。 %对这种多重兴趣进行建模对于精确的新闻建议至关重要。但是,大多数现有方法通常忽略了如此重要的特征,因此无法区分和建模用户的潜在多重兴趣,从而阻碍了下一个新闻的准确建议。因此,本文提出了新闻推荐的多功能新闻序列(分钟)模型。在几分钟内,设计了一个基于自我注意的新闻编码器,以学习每个新闻的信息嵌入信息,然后设计出一个新颖的平行兴趣网络,以提取新闻顺序中嵌入的潜在多重兴趣,以准备下一步 - 新建议。现实世界中数据集的实验结果表明,我们的模型可以比最新的模型获得更好的性能。
translated by 谷歌翻译
新闻建议是现代社会中有效的信息传播解决方案。虽然近年来已经见证了许多有前途的新闻推荐模型,但它们主要以静态方式捕获文件级上的用户新交互。然而,在现实世界的情景中,新闻可以很复杂和多样化,盲目地将所有内容挤压到嵌入式矢量中,在提取与用户的个性化偏好兼容的信息中可以不太有效。此外,新闻推荐方案中的用户偏好可以是高度动态的,并且应该设计定制的动态机制以获得更好的推荐性能。在本文中,我们提出了一种新颖的动态新闻推荐模型。为了更好地理解新闻内容,我们利用注意机制分别代表了从句子,元素和文档级别的消息。为了捕获用户的动态偏好,连续时间信息无缝地结合到关注权重的计算中。更具体地,我们设计了一个分层关注网络,其中下层学习不同句子和元素的重要性,并且上层捕获先前互动和目标新闻之间的相关性。为了全面模型动态字符,我们首先通过结合绝对和相对时间信息来增强传统的关注机制,然后我们提出了一种动态的负采样方法来优化用户的隐式反馈。我们基于三个现实世界数据集进行广泛的实验,以展示我们的模型的效果。我们的源代码和预先训练的表示在https://github.com/lshowway/d-han提供。
translated by 谷歌翻译
个性化新闻推荐旨在通过预测他们点击某些文章的可能性为读者提供有吸引力的文章。为了准确预测这种概率,已经提出了充足的研究,以积极利用物品的内容特征,例如单词,类别或实体。然而,我们观察到,文章的语境特征,例如CTR(点击率),流行度或新鲜度,最近被忽视或未充分利用。为了证明这是这种情况,我们在近期深度学习模型和天真的上下文模型之间进行了广泛的比较,我们设计得令人惊讶地发现后者很容易表现前者。此外,我们的分析表明,近期将过度复杂的深度学习业务应用于上下文功能的趋势实际上妨碍了推荐性能。根据这些知识,我们设计了一个有目的的简单上下文模块,可以通过大的边距提高上一个新闻推荐模型。
translated by 谷歌翻译
我们提出了一种以最小计算成本提高广泛检索模型的性能的框架。它利用由基本密度检索方法提取的预先提取的文档表示,并且涉及训练模型以共同评分每个查询的一组检索到的候选文档,同时在其他候选的上下文中暂时转换每个文档的表示。以及查询本身。当基于其与查询的相似性进行评分文档表示时,该模型因此意识到其“对等”文档的表示。我们表明,我们的方法导致基本方法的检索性能以及彼此隔离的评分候选文档进行了大量改善,如在一对培训环境中。至关重要的是,与基于伯特式编码器的术语交互重型器不同,它在运行时在任何第一阶段方法的顶部引发可忽略不计的计算开销,允许它与任何最先进的密集检索方法容易地结合。最后,同时考虑给定查询的一组候选文档,可以在检索中进行额外的有价值的功能,例如评分校准和减轻排名中的社会偏差。
translated by 谷歌翻译
新闻饲料推荐是一个重要的Web服务。近年来,预先接受了训练的语言模型(PLMS)被密集地应用于提高建议质量。然而,这些深度模型的利用在许多方面有限,例如缺乏可解释性并且与现有的倒指数系统不相容。最重要的是,基于PLMS的推荐人效率低下,因为用户侧信息的编码将采用巨大的计算成本。虽然计算可以用高效的变压器或蒸馏器加速计算,但是对于与超级长期新闻浏览历史相关联的活动用户来说仍然不足以及时建议。在这项工作中,我们从独特的角度解决了高效的新闻推荐问题。我们不依赖于整个输入(即,新闻文章的集合,而是浏览的新闻文章),我们认为用户的兴趣可以仅仅与这些代表关键字完全捕获。通过此激励,我们提出了GateFormer,在进入变压器之前将输入数据门控。门控模块是个性化的,轻量级和端到端的学习,使得它可以执行对信息用户输入的准确和有效的过滤。 GateFormer在实验中实现了高度令人印象深刻的性能,在那里它显着优于准确性和效率的现有加速方法。我们还令人惊讶地发现,即使有超过10倍的原始输入压缩,GateFormer仍然能够用SOTA方法维持映射。
translated by 谷歌翻译
In recent years, deep neural networks have yielded immense success on speech recognition, computer vision and natural language processing. However, the exploration of deep neural networks on recommender systems has received relatively less scrutiny. In this work, we strive to develop techniques based on neural networks to tackle the key problem in recommendation -collaborative filtering -on the basis of implicit feedback.Although some recent work has employed deep learning for recommendation, they primarily used it to model auxiliary information, such as textual descriptions of items and acoustic features of musics. When it comes to model the key factor in collaborative filtering -the interaction between user and item features, they still resorted to matrix factorization and applied an inner product on the latent features of users and items.By replacing the inner product with a neural architecture that can learn an arbitrary function from data, we present a general framework named NCF, short for Neural networkbased Collaborative Filtering. NCF is generic and can express and generalize matrix factorization under its framework. To supercharge NCF modelling with non-linearities, we propose to leverage a multi-layer perceptron to learn the user-item interaction function. Extensive experiments on two real-world datasets show significant improvements of our proposed NCF framework over the state-of-the-art methods. Empirical evidence shows that using deeper layers of neural networks offers better recommendation performance.
translated by 谷歌翻译
多字符分类(MCC)是一个基本机器学习问题,其旨在将每个实例分类为预定义的类集中的一个。鉴于实例,分类模型计算每个类的分数,然后所有类别都用于对类进行排序。分类模型的性能通常通过TOP-K精度/误差(例如,k = 1或5)来测量。在本文中,我们不会旨在提出新的神经表征学习模型,因为最近的作品,但要表明通过排名镜头可以轻松提高MCC性能。特别是,通过将MCC视为对实例的等级等级,我们首先争辩说排名指标,例如归一化的折扣累积增益(NDCG),可以比现有的Top-K度量更具信息化。我们进一步证明主导的神经MCC架构可以用特定的设计选择制定为神经排名框架。基于这种概括,我们表明,利用丰富的信息检索文献利用技术将技术效果简单,直观地将MCC性能从盒子中提高。具有不同数据集和骨干型号的文本和图像分类任务的广泛经验结果(例如,用于文本和图像分类的BERT和RESET)显示了我们提出的框架的价值。
translated by 谷歌翻译
冷门问题在推荐系统中通常被认可,并通过遵循一般想法来利用温暖用户的丰富互动记录来推断冷用户的偏好。但是,这些解决方案的性能受到温暖用户可用的记录量的限制。因此,基于几个用户的互动记录建立推荐系统仍然是不受欢迎或早期推荐平台的挑战性问题。本文着重于根据两个观察结果解决新闻推荐的几个建议问题。首先,在不同平台(即使是不同语言)的新闻可能会共享类似的主题。其次,对这些主题的用户偏好可以在不同平台上转移。因此,我们建议通过将用户新的偏好从富源源域转移到低资源的目标域来解决几个播放新闻推荐问题。为了用不同的语言桥接两个域,而没有任何重叠的用户和新闻,我们提出了一个新颖的无监督的交叉转移模型,作为在两个域中与语义上相似的新闻保持一致的新闻编码器。用户编码器是在对齐新闻编码的顶部构造的,并将用户偏好从源源转移到目标域。两个现实世界新闻推荐数据集的实验结果表明,与最先进的基线相比,我们提出的方法在解决几乎没有新闻建议方面的出色表现。
translated by 谷歌翻译
Knowledge graph (KG) embedding is to embed components of a KG including entities and relations into continuous vector spaces, so as to simplify the manipulation while preserving the inherent structure of the KG. It can benefit a variety of downstream tasks such as KG completion and relation extraction, and hence has quickly gained massive attention. In this article, we provide a systematic review of existing techniques, including not only the state-of-the-arts but also those with latest trends. Particularly, we make the review based on the type of information used in the embedding task. Techniques that conduct embedding using only facts observed in the KG are first introduced. We describe the overall framework, specific model design, typical training procedures, as well as pros and cons of such techniques. After that, we discuss techniques that further incorporate additional information besides facts. We focus specifically on the use of entity types, relation paths, textual descriptions, and logical rules. Finally, we briefly introduce how KG embedding can be applied to and benefit a wide variety of downstream tasks such as KG completion, relation extraction, question answering, and so forth.
translated by 谷歌翻译
受到计算机愿景和语言理解的深度学习的巨大成功的影响,建议的研究已经转移到发明基于神经网络的新推荐模型。近年来,我们在开发神经推荐模型方面目睹了显着进展,这概括和超越了传统的推荐模型,由于神经网络的强烈代表性。在本调查论文中,我们从建议建模与准确性目标的角度进行了系统审查,旨在总结该领域,促进研究人员和从业者在推荐系统上工作的研究人员和从业者。具体而具体基于推荐建模期间的数据使用,我们将工作划分为协作过滤和信息丰富的建议:1)协作滤波,其利用用户项目交互数据的关键来源; 2)内容丰富的建议,其另外利用与用户和项目相关的侧面信息,如用户配置文件和项目知识图; 3)时间/顺序推荐,其考虑与交互相关的上下文信息,例如时间,位置和过去的交互。在为每种类型审查代表性工作后,我们终于讨论了这一领域的一些有希望的方向。
translated by 谷歌翻译
学习捕获特征关系有效,有效地是现代推荐系统的点击率(CTR)预测的必要条件。大多数现有的CTR预测方法通过繁琐的手动设计的低阶交互或通过不灵活和低效的高阶交互来模型这样的关系,这两者都需要额外的DNN模块进行隐式交互建模。在本文中,我们提出了一种新颖的插件操作,动态参数化操作(DPO),以便明智地学习显式和隐式交互实例。我们认为DPO进入DNN模块和注意力模块可以分别有利于CTR预测中的两个主要任务,增强了基于特征的建模和改进用户行为建模的适应性与实例 - 方向性。我们的动态参数化网络在公共数据集和现实世界生产数据集的离线实验中显着优于最先进的方法,以及在线A / B测试。此外,建议的动态参数化网络已经在世界上最大的电子商务公司之一的排名系统中部署,服务于数亿个活跃用户的主要流量。
translated by 谷歌翻译
推荐系统是机器学习系统的子类,它们采用复杂的信息过滤策略来减少搜索时间,并向任何特定用户建议最相关的项目。混合建议系统以不同的方式结合了多种建议策略,以从其互补的优势中受益。一些混合推荐系统已经结合了协作过滤和基于内容的方法来构建更强大的系统。在本文中,我们提出了一个混合推荐系统,该系统将基于最小二乘(ALS)的交替正方(ALS)的协作过滤与深度学习结合在一起,以增强建议性能,并克服与协作过滤方法相关的限制,尤其是关于其冷启动问题。本质上,我们使用ALS(协作过滤)的输出来影响深度神经网络(DNN)的建议,该建议结合了大数据处理框架中的特征,上下文,结构和顺序信息。我们已经进行了几项实验,以测试拟议混合体架构向潜在客户推荐智能手机的功效,并将其性能与其他开源推荐人进行比较。结果表明,所提出的系统的表现优于几个现有的混合推荐系统。
translated by 谷歌翻译
我们考虑了个性化新闻推荐的问题,每个用户都以顺序消费新闻。现有的个性化新闻推荐方法的重点是利用用户兴趣,而忽略了推荐中的探索,从而导致反馈循环并长期损害了建议质量。我们基于上下文土匪推荐策略,自然可以解决剥削 - 探索权衡取舍。主要挑战是探索大规模项目空间并利用不确定性的深层表示的计算效率。我们提出了一个两阶段的分层主题,新的深层上下文强盗框架,以在有许多新闻项目时有效地学习用户偏好。我们为用户和新闻使用深度学习表示形式,并将神经上限限制(UCB)策略推广到广义添加剂UCB和BILINEAR UCB。大规模新闻建议数据集的经验结果表明,我们提出的政策是有效的,并且表现优于基线匪徒政策。
translated by 谷歌翻译
最近公布的知识图形嵌入模型的实施,培训和评估的异质性已经公平和彻底的比较困难。为了评估先前公布的结果的再现性,我们在Pykeen软件包中重新实施和评估了21个交互模型。在这里,我们概述了哪些结果可以通过其报告的超参数再现,这只能以备用的超参数再现,并且无法再现,并且可以提供洞察力,以及为什么会有这种情况。然后,我们在四个数据集上进行了大规模的基准测试,其中数千个实验和24,804 GPU的计算时间。我们展示了最佳实践,每个模型的最佳配置以及可以通过先前发布的最佳配置进行改进的洞察。我们的结果强调了模型架构,训练方法,丢失功能和逆关系显式建模的组合对于模型的性能来说至关重要,而不仅由模型架构决定。我们提供了证据表明,在仔细配置时,若干架构可以获得对最先进的结果。我们制定了所有代码,实验配置,结果和分析,导致我们在https://github.com/pykeen/pykeen和https://github.com/pykeen/benchmarking中获得的解释
translated by 谷歌翻译
在线新闻建议的一个关键挑战是帮助用户找到他们感兴趣的文章。传统新闻推荐方法通常使用单一新闻信息,这不足以编码新闻和用户表示。最近的研究使用多个频道新闻信息,例如标题,类别和机构,增强新闻和用户表示。然而,这些方法仅使用各种注意机制来熔化多视图嵌入,而不考虑上下文中包含的深度挖掘更高级别的信息。这些方法编码了在Word级别的新闻内容并共同培训了推荐网络中的注意参数,导致培训模型所需的更多Coreas。我们提出了一个事件提取的新闻推荐(EENR)框架,以克服这些缺点,利用事件提取到抽象的更高级别信息。 Eenr还使用两级策略来减少推荐网络后续部分的参数。我们在第一阶段通过外部语料库训练事件提取模块,并将训练型模型应用于新闻推荐数据集,以预测第二阶段的事件级信息,包括事件类型,角色和参数,包括事件类型,角色和参数。然后我们保险熔断多个频道信息,包括活动信息,新闻标题和类别,以编码新闻和用户。对现实世界数据集的广泛实验表明,我们的EENR方法可以有效地提高新闻建议的性能。最后,我们还探讨了利用更高抽象级别信息来替代新闻身体内容的合理性。
translated by 谷歌翻译
Graph Convolution Network (GCN) has become new state-ofthe-art for collaborative filtering. Nevertheless, the reasons of its effectiveness for recommendation are not well understood. Existing work that adapts GCN to recommendation lacks thorough ablation analyses on GCN, which is originally designed for graph classification tasks and equipped with many neural network operations. However, we empirically find that the two most common designs in GCNs -feature transformation and nonlinear activation -contribute little to the performance of collaborative filtering. Even worse, including them adds to the difficulty of training and degrades recommendation performance.In this work, we aim to simplify the design of GCN to make it more concise and appropriate for recommendation. We propose a new model named LightGCN, including only the most essential component in GCN -neighborhood aggregation -for collaborative filtering. Specifically, LightGCN learns user and item embeddings by linearly propagating them on the user-item interaction graph, and uses the weighted sum of the embeddings learned at all layers as the final embedding. Such simple, linear, and neat model is much easier to implement and train, exhibiting substantial improvements (about 16.0% relative improvement on average) over Neural Graph Collaborative Filtering (NGCF) -a state-of-the-art GCN-based recommender model -under exactly the same experimental setting. Further analyses are provided towards the rationality of the simple LightGCN from both analytical and empirical perspectives. Our implementations are available in both TensorFlow
translated by 谷歌翻译
为了更好地利用搜索日志和建模用户的行为模式,提出了许多点击模型来提取用户的隐式交互反馈。大多数传统点击模型都是基于概率图形模型(PGM)框架,该框架需要手动设计的依赖项,并且可能会过度简化用户行为。最近,提出了基于神经网络的方法来通过增强表达能力并允许灵活的依赖性来提高用户行为的预测准确性。但是,他们仍然遭受数据稀疏性和冷启动问题的困扰。在本文中,我们提出了一个新颖的图形增强点击模型(GraphCM),用于Web搜索。首先,我们将每个查询或文档视为顶点,并分别针对查询和文档提出新颖的均匀图构造方法,以完全利用会议内和会议间信息,以解决稀疏性和冷启动问题。其次,在考试假设之后,我们分别对吸引力估计量和检查预测值进行了建模,以输出吸引力得分和检查概率,在该分数中,应用图形神经网络和邻居相互作用技术用于提取在预构建的同质图中编码的辅助信息。最后,我们将组合功能应用于将考试概率和吸引力得分整合到点击预测中。在三个现实世界会话数据集上进行的广泛实验表明,GraphCM不仅胜过了最先进的模型,而且还可以在解决数据稀疏性和冷启动问题方面取得卓越的性能。
translated by 谷歌翻译
点击率(CTR)预测的目标是预测用户单击项目的可能性,在推荐系统中变得越来越重要。最近,一些具有自动从他/她的行为中提取用户兴趣的深度学习模型取得了巨大的成功。在这些工作中,注意机制用于选择用户在历史行为中感兴趣的项目,从而提高CTR预测指标的性能。通常,这些细心的模块可以通过使用梯度下降与基本预测变量共同训练。在本文中,我们将用户兴趣建模视为特征选择问题,我们称之为用户兴趣选择。对于这样一个问题,我们在包装法的框架下提出了一种新颖的方法,该方法被称为Meta-wrapper。更具体地说,我们使用可区分的模块作为包装运算符,然后将其学习问题重新提出为连续的二元优化。此外,我们使用元学习算法来求解优化并理论上证明其收敛性。同时,我们还提供了理论分析,以表明我们提出的方法1)效率基于包装器的特征选择,而2)可以更好地抵抗过度拟合。最后,在三个公共数据集上进行的广泛实验表明了我们方法在提高CTR预测的性能方面的优势。
translated by 谷歌翻译
已经表明,在一个域上训练的双编码器经常概括到其他域以获取检索任务。一种广泛的信念是,一个双编码器的瓶颈层,其中最终得分仅仅是查询向量和通道向量之间的点产品,它过于局限,使得双编码器是用于域外概括的有效检索模型。在本文中,我们通过缩放双编码器模型的大小{\ em同时保持固定的瓶颈嵌入尺寸固定的瓶颈的大小来挑战这一信念。令人惊讶的是,令人惊讶的是,缩放模型尺寸会对各种缩放提高检索任务,特别是对于域外泛化。实验结果表明,我们的双编码器,\ textbf {g} enovalizable \ textbf {t} eTrievers(gtr),优先级%colbert〜\ cite {khattab2020colbertt}和现有的稀疏和密集的索取Beir DataSet〜\ Cite {Thakur2021Beir}显着显着。最令人惊讶的是,我们的消融研究发现,GTR是非常数据的高效,因为它只需要10 \%MARCO监督数据,以实现最佳域的性能。所有GTR模型都在https://tfhub.dev/google/collections/gtr/1发布。
translated by 谷歌翻译