推荐系统通常会从各种用户行为中学习用户兴趣,包括点击和点击后行为(例如,喜欢和喜欢)。但是,这些行为不可避免地表现出受欢迎程度的偏见,从而导致一些不公平的问题:1)对于具有相似质量,更受欢迎的物品的物品会获得更多的曝光; 2)更糟糕的是,受欢迎程度较低的流行物品可能会获得更多的曝光率。现有关于缓解流行偏见的工作会盲目消除偏见,通常忽略项目质量的影响。我们认为,不同用户行为(例如,转换率)之间的关系实际上反映了项目质量。因此,为了处理不公平的问题,我们建议通过考虑多种用户行为来减轻流行性偏见。在这项工作中,我们研究了多行为推荐中相互作用生成过程背后的因果关系。具体来说,我们发现:1)项目受欢迎程度是暴露的项目和用户的点击交互之间的混杂因素,导致第一个不公平; 2)一些隐藏的混杂因素(例如,项目生产者的声誉)影响了项目的流行和质量,导致第二次不公平。为了减轻这些混杂问题,我们提出了一个因果框架来估计因果效应,该因果效应利用后门调整以阻止混杂因素引起的后门路径。在推论阶段,我们消除了受欢迎程度的负面影响,并利用质量的良好效果进行推荐。在两个现实世界数据集上的实验验证了我们提出的框架的有效性,这在不牺牲建议准确性的情况下增强了公平性。
translated by 谷歌翻译
历史互动是推荐模型培训的默认选择,通常表现出高稀疏性,即大多数用户项目对都是未观察到的缺失数据。标准选择是将缺失的数据视为负训练样本,并估计用户项目对之间的相互作用以及观察到的相互作用。通过这种方式,在训练过程中不可避免地会误标记一些潜在的互动,这将损害模型的保真度,阻碍模型回忆起错误标签的项目,尤其是长尾尾。在这项工作中,我们从新的不确定性的新角度研究了标签的问题,该问题描述了缺失数据的固有随机性。随机性促使我们超越了相互作用的可能性,并接受了不确定性建模。为此,我们提出了一个新的不确定性不确定性建议(AUR)框架,该框架由新的不确定性估计器以及正常的推荐模型组成。根据核心不确定性理论,我们得出了一个新的建议目标来学习估计量。由于错误标签的机会反映了一对的潜力,因此AUR根据不确定性提出了建议,该建议被证明是为了改善较不受欢迎的项目的建议性能而不会牺牲整体性能。我们在三个代表性推荐模型上实例化AUR:来自主流模型体系结构的矩阵分解(MF),LightGCN和VAE。两个现实世界数据集的广泛结果验证了AUR W.R.T.的有效性。更好的建议结果,尤其是在长尾项目上。
translated by 谷歌翻译
因果图作为因果建模的有效和强大的工具,通常被假定为有向的无环图(DAG)。但是,推荐系统通常涉及反馈循环,该反馈循环定义为推荐项目的循环过程,将用户反馈纳入模型更新以及重复该过程。结果,重要的是将循环纳入因果图中,以准确地对推荐系统进行动态和迭代数据生成过程。但是,反馈回路并不总是有益的,因为随着时间的流逝,它们可能会鼓励越来越狭窄的内容暴露,如果无人看管的话,可能会导致回声室。结果,重要的是要了解何时会导致Echo Chambers以及如何减轻回声室而不会损害建议性能。在本文中,我们设计了一个带有循环的因果图,以描述推荐的动态过程。然后,我们采取马尔可夫工艺来分析回声室的数学特性,例如导致回声腔的条件。受理论分析的启发,我们提出了一个动态的因果协作过滤($ \ partial $ ccf)模型,该模型估算了用户基于后门调整的项目的干预后偏好,并通过反事实推理减轻了Echo Echo Chamber。在现实世界数据集上进行了多个实验,结果表明,我们的框架可以比其他最先进的框架更好地减轻回声室,同时通过基本建议模型实现可比的建议性能。
translated by 谷歌翻译
由于越来越多的用户使用它们来寻求和决策,推荐制度对人类和社会的影响增加了对人类和社会的影响。因此,在建议中解决潜在的不公平问题至关重要。就像用户在物品上具有个性化的偏好,用户对公平性的要求也是个性化的许多情况。因此,为用户提供个性化的公平建议,以满足其个性化的公平需求。此外,以前的公平建议作品主要关注基于关联的公平性。但是,重要的是从联合公平概念前进,以便在推荐系统中更适当地评估公平性的因果公平概念。本文根据上述考虑,侧重于为推荐系统中的用户实现个性化的反事实公平。为此,我们介绍了一个框架,通过对建议产生特征 - 独立的用户嵌入来实现通过对抗学习来实现反转公平的建议。该框架允许推荐系统为用户实现个性化的公平,同时也涵盖非个性化情况。在浅层和深刻的推荐算法上的两个现实数据集的实验表明,我们的方法可以为具有理想的推荐性能的用户生成更公平的建议。
translated by 谷歌翻译
隐式反馈的无处不是建立推荐系统不可或缺的反馈。但是,它实际上并没有反映用户的实际满意度。例如,在电子商务中,一大部分点击不转化为购买,许多购买结束了否定审查。因此,考虑隐性反馈中的不可避免的噪声是重要的。但是,建议的一点工作已经考虑了隐性反馈的嘈杂性。在这项工作中,我们探讨了向建议学习的识别隐含反馈的中心主题,包括培训和推论。通过观察正常推荐培训的过程,我们发现嘈杂的反馈通常在早期阶段中具有大的损失值。灵感来自这一观察,我们提出了一种新的培训策略,称为自适应去噪培训(ADT),其自适应地修剪了两个范式的嘈杂相互作用(即截断损失和重新减免)。此外,我们考虑额外的反馈(例如,评级)作为辅助信号,提出三种策略,将额外的反馈纳入ADT:FineTuning,预热训练和碰撞推断。我们在广泛使用的二进制交叉熵丢失上实例化了两个范式,并在三个代表推荐模型上测试它们。在三个基准测试中的广泛实验表明ADT在不使用额外反馈的情况下显着提高了正常培训的建议质量。此外,提出的三种策略用于使用额外反馈的主要原因是增强ADT的去噪能力。
translated by 谷歌翻译
传统的推荐系统旨在根据观察到的群体的评级估算用户对物品的评级。与所有观察性研究一样,隐藏的混乱,这是影响物品曝光和用户评级的因素,导致估计系统偏差。因此,推荐制度研究的新趋势是否定混杂者对因果视角的影响。观察到建议中的混淆通常是在物品中共享的,因此是多原因混淆,我们将推荐模拟为多原因多结果(MCMO)推理问题。具体而言,为了解决混淆偏见,我们估计渲染项目曝光独立伯努利试验的用户特定的潜变量。生成分布由具有分解逻辑似然性的DNN参数化,并且通过变分推理估计难治性后续。控制这些因素作为替代混淆,在温和的假设下,可以消除多因素混淆所产生的偏差。此外,我们表明MCMO建模可能导致由于与高维因果空间相关的稀缺观察而导致高方差。幸运的是,我们理论上证明了作为预处理变量的推出用户特征可以大大提高样本效率并减轻过度装箱。模拟和现实世界数据集的实证研究表明,建议的深度因果额外推荐者比艺术最先进的因果推荐人员对未观察到的混乱更具稳健性。代码和数据集在https://github.com/yaochenzhu/deep-deconf发布。
translated by 谷歌翻译
隐式反馈已被广泛用于构建商业推荐系统。由于观察到的反馈代表用户的点击日志,因此真实相关性和观察到的反馈之间存在语义差距。更重要的是,观察到的反馈通常偏向流行项目,从而高估了流行项目的实际相关性。尽管现有的研究使用反向倾向加权(IPW)或因果推理开发了公正的学习方法,但它们仅专注于消除项目的流行偏见。在本文中,我们提出了一种新颖的无偏建议学习模型,即双边自我非偏置推荐剂(Biser),以消除推荐模型引起的项目的暴露偏见。具体而言,双方由两个关键组成部分组成:(i)自我内向倾向加权(SIPW)逐渐减轻项目的偏见而不会产生高计算成本; (ii)双边无偏学习(BU),以弥合模型预测中两个互补模型之间的差距,即基于用户和项目的自动编码器,从而减轻了SIPW的较高差异。广泛的实验表明,Biser在几个数据集上始终优于最先进的无偏建议型号,包括外套,Yahoo! R3,Movielens和Citeulike。
translated by 谷歌翻译
建议制度,依靠历史观察数据来模仿用户和物品之间的复杂关系,取得了巨大的成功,在现实世界中取得了巨大的成功。选择偏见是现有的现有观测数据基于方法的最重要问题之一,其实际上是由多种类型的不观察室的暴露策略引起的(例如促销和假期效应)。虽然已经提出了各种方法来解决这个问题,但它们主要依赖于隐含的脱叠技术,但没有明确建立未观察的曝光策略。通过明确重建曝光策略(简称休息),我们将推荐问题正式化为反事实推理,并提出了脱叠的社会推荐方法。在休息时,我们假设项目的曝光由潜在曝光策略,用户和项目控制。基于上述生成过程,首先通过识别分析提供我们方法的理论保证。其次,在社交网络和项目的帮助下,我们采用了变分自动编码器来重建潜在的曝光策略。第三,我们通过利用回收的曝光策略制定基于反事实推理的建议算法。四个现实世界数据集的实验,包括三个已发布的数据集和一个私人微信官方帐户数据集,展示了几种最先进的方法的显着改进。
translated by 谷歌翻译
在推荐系统中,一个普遍的挑战是冷门问题,在系统中,相互作用非常有限。为了应对这一挑战,最近,许多作品将元优化的想法介绍到建议方案中,即学习仅通过过去的几个交互项目来学习用户偏好。核心想法是为所有用户学习全局共享的元启动参数,并分别为每个用户迅速调整其本地参数。他们的目的是在各种用户的偏好学习中得出一般知识,以便通过博学的先验和少量培训数据迅速适应未来的新用户。但是,以前的作品表明,推荐系统通常容易受到偏见和不公平的影响。尽管元学习成功地通过冷启动提高了推荐性能,但公平性问题在很大程度上被忽略了。在本文中,我们提出了一个名为Clover的全面的公平元学习框架,以确保元学习的推荐模型的公平性。我们系统地研究了三种公平性 - 个人公平,反事实公平和推荐系统中的群体公平,并建议通过多任务对抗学习方案满足所有三种类型。我们的框架提供了一种通用的培训范式,适用于不同的元学习推荐系统。我们证明了三叶草对三个现实世界数据集的代表性元学习用户偏好估计器的有效性。经验结果表明,三叶草可以实现全面的公平性,而不会恶化整体的冷淡建议性能。
translated by 谷歌翻译
Recommender systems can strongly influence which information we see online, e.g., on social media, and thus impact our beliefs, decisions, and actions. At the same time, these systems can create substantial business value for different stakeholders. Given the growing potential impact of such AI-based systems on individuals, organizations, and society, questions of fairness have gained increased attention in recent years. However, research on fairness in recommender systems is still a developing area. In this survey, we first review the fundamental concepts and notions of fairness that were put forward in the area in the recent past. Afterward, through a review of more than 150 scholarly publications, we present an overview of how research in this field is currently operationalized, e.g., in terms of general research methodology, fairness measures, and algorithmic approaches. Overall, our analysis of recent works points to specific research gaps. In particular, we find that in many research works in computer science, very abstract problem operationalizations are prevalent, and questions of the underlying normative claims and what represents a fair recommendation in the context of a given application are often not discussed in depth. These observations call for more interdisciplinary research to address fairness in recommendation in a more comprehensive and impactful manner.
translated by 谷歌翻译
单击后键盘转换为指示用户偏好的强信号,是构建推荐系统的良性。但是,由于选择偏差,即,观察到的单击事件通常会发生在用户的首选项目,准确地估计点击后击率(CVR)是具有挑战性的。目前,大多数现有方法利用反事实学习到Debias推荐系统。其中,双重稳健(DR)估计器通过以双重稳健的方式组合基于误差估算的(EIB)估计和逆倾向分数(IPS)估计来实现竞争性能。然而,不准确的误差估算可能导致其比IPS估计器更高的方差。更糟糕的是,现有方法通常使用简单的模型 - 不可知方法来估计归纳错误,这不足以近似于近似于动态改变的模型相关目标(即预测模型的梯度方向)。为了解决这些问题,我们首先导出DR估算器的偏差和方差。基于它,已经提出了一种更强大的双重稳健(MRDR)估计器,以进一步降低其差异,同时保持其双重稳健性。此外,我们为MRDR估算器提出了一种新的双重学习方法,可以将误差归纳转换为一般的CVR估计。此外,我们经验验证所提出的学习方案可以进一步消除估算学习的高方差问题。为了评估其有效性,在半合成数据集和两个现实世界数据集上进行了广泛的实验。结果证明了所提出的方法的优越性在最先进的方法中。代码可在https://github.com/guosyjlu/mrdr-dl上获得。
translated by 谷歌翻译
这项工作研究了针对推荐系统的有偏见反馈中学习无偏算法的问题。我们从理论和算法的角度解决了这个问题。无偏学习的最新著作通过各种技术(例如元学习,知识蒸馏和信息瓶颈)推进了最新技术。尽管取得了经验成功,但大多数人缺乏理论保证,在理论和最近的算法之间形成了不可忽略的差距。为此,我们首先从分配转移的角度查看无偏见的推荐问题。我们理论上分析了公正学习的概括界限,并提出了它们与最近无偏学习目标的密切关系。基于理论分析,我们进一步提出了一个原则性的框架,对抗性自我训练(AST),以无偏见。对现实世界和半合成数据集的经验评估证明了拟议的AST的有效性。
translated by 谷歌翻译
在信息爆炸的时代,推荐系统通过促进内容探索在人们的日常生活中起着重要作用。众所周知,用户的活动性,即行为数量,倾向于遵循长尾分布,大多数用户的积极性低。在实践中,我们观察到,在联合培训后,尾巴用户的质量推荐率明显低于首席用户。我们进一步确定,由于数据有限,因此在尾巴用户上训练的模型仍然取得了较低的结果。尽管长尾分布在推荐系统中无处不在,但在研究和行业中,提高尾巴用户的推荐性能仍然仍然是挑战。直接应用长尾分配的相关方法可能有可能伤害首席用户的经验,这是不起作用的,因为一小部分具有高积极性的首席用户贡献了平台收入的一部分。在本文中,我们提出了一种新颖的方法,可以显着提高尾巴用户的建议性能,同时至少在基本模型上为首席用户提供至少可比的性能。这种方法的本质是一种新颖的梯度聚合技术,该技术将所有用户共享的常识知识分为主干模型,然后为Head用户和Tail用户个性化提供单独的插件预测网络。至于常识学习,我们利用因果关系理论的向后调整来消除梯度估计,从而掩盖了混杂因素的骨干训练,即用户的积极性。我们对两个公共建议基准数据集和一个从支撑台平台收集的大规模工业数据集进行了广泛的实验。实证研究验证了我们方法的合理性和有效性。
translated by 谷歌翻译
旨在估算每个广告接触点在转换旅程中的贡献的多点触摸归因(MTA)对于预算分配和自动广告至关重要。现有方法首先训练模型,以通过历史数据来预测广告旅程的转换概率,并使用反事实预测来计算每个接触点的归因。这些作品的假设是转换预测模型是公正的,即,它可以对任何随机分配的旅程(包括事实和反事实)提供准确的预测。然而,由于根据用户偏好推荐裸露的广告,因此这个假设并不总是存在。用户的这种混杂偏见将导致反事实预测中的分布(OOD)问题,并导致归因中的概念漂移。在本文中,我们定义了因果MTA任务,并提出Causalmta来消除用户偏好的影响。它从系统地消除了静态和动态偏好的混杂偏见,以使用历史数据来学习转换预测模型。我们还提供理论分析,以证明Causalmta可以学习具有足够数据的无偏见模型。电子商务公司的公共数据集和印象数据的广泛实验表明,Causalmta不仅比最先进的方法实现了更好的预测性能,而且还可以在不同的广告渠道上产生有意义的属性信用。
translated by 谷歌翻译
在隐性反馈推荐中,将短期偏好纳入推荐系统近年来引起了不断的关注。但是,在历史交互中的意外行为,如偶然点击一些物品,也不能反映用户固有的偏好。现有研究未能模拟意外行为的影响,从而实现劣等的推荐性能。在本文中,我们提出了一种多偏好模型(MPM)来消除意外行为的影响。 MPM首先通过细粒度的偏好模块从最近的历史交互中提取用户的即时偏好。然后,培训意外行为检测器以判断这些即时偏好是否由意外行为偏置。我们还将用户的一般偏好集成在MPM中。最后,执行输出模块以消除意外行为的影响,并集成所有信息以进行最终推荐。我们在电影的两个数据集和电子零售中进行广泛的实验,展示了我们在最先进的方法上的模型的显着改进。实验结果表明,MPM在HR @ 10和NDCG @ 10中获得了大规模的改善,平均与斯trec模型相比相对增加了3.643%和4.107%。我们在https://github.com/chenjie04/mpm/发布我们的代码。
translated by 谷歌翻译
瀑布推荐系统(RS)是移动应用程序中RS的流行形式,是推荐的项目流,这些项目由连续页面组成,可以通过滚动浏览。在Waterfall RS中,当用户完成浏览页面时,Edge(例如,手机)将向Cloud Server发送请求,以获取新的建议页面,称为分页请求机制。 RSS通常将大量项目放入一页中,以减少众多分页请求中的过度资源消耗,但是,这将降低RSS根据用户的实时兴趣及时续订建议的能力,并导致贫穷的用户。经验。直观地,在页面内插入其他请求以更新频率的建议可以减轻问题。但是,以前的尝试,包括非自适应策略(例如,统一插入请求)最终会导致资源过度消费。为此,我们设想了一项名为智能请求策略设计(IRSD)的Edge Intelligence的新学习任务。它旨在通过根据用户的实时意图确定请求插入的适当情况来提高瀑布RSS的有效性。此外,我们提出了一种新的自适应请求插入策略的范式,名为基于Uplift的On-Ending Smart请求框架(AdareQuest)。 AdareQuest 1)通过将实时行为与基于基于注意力的神经网络相匹配的历史兴趣来捕获用户意图的动态变化。 2)估计根据因果推理插入的请求带来的用户购买的反事实提升。 3)通过在在线资源约束下最大化效用功能来确定最终请求插入策略。我们在离线数据集和在线A/B测试上进行了广泛的实验,以验证AdareQuest的有效性。
translated by 谷歌翻译
推荐系统在塑造现代网络生态系统中起关键作用。这些系统在(1)提出建议之间交替(2)收集用户对这些建议的响应,以及(3)根据此反馈重新审判建议算法。在此过程中,推荐系统会影响随后用于更新它的用户行为数据,从而创建反馈循环。最近的工作表明,反馈循环可能会损害建议质量并使用户行为均匀,从而在部署推荐系统时提高道德和绩效问题。为了解决这些问题,我们提出了反馈循环(CAFL)的因果调整,该算法可证明使用因果推理打破反馈回路,并可以应用于优化培训损失的任何建议算法。我们的主要观察结果是,如果原因是因果量的原因,即推荐系统不会遭受反馈循环的影响,即对用户评级的建议分布。此外,我们可以通过调整推荐系统对用户偏好的预测来计算从观察数据中计算此干预分布。使用模拟环境,我们证明CAFL与先前的校正方法相比提高了建议质量。
translated by 谷歌翻译
建立公平的推荐系统是一个具有挑战性且至关重要的研究领域,因为它对社会产生了巨大影响。我们将两个普遍公认的公平概念的定义扩展到了推荐系统,即机会平等和均衡的赔率。这些公平措施确保同样对待“合格”(或“不合格”)候选人,无论其受保护的属性状况如何(例如性别或种族)。我们提出了可扩展的方法,以实现机会平等和在存在位置偏见的情况下排名均等的几率,这通常会困扰推荐系统产生的数据。我们的算法是模型不可知论,因为它们仅依赖于模型提供的最终分数,因此很容易适用于几乎所有Web尺度推荐系统。我们进行广泛的模拟以及现实世界实验,以显示我们方法的功效。
translated by 谷歌翻译
为了成功推荐(SR)成功,最近的作品着重于设计有效的顺序编码器,融合侧面信息以及挖掘额外的积极的自我实施信号。在每个时间步骤中对负面项目进行采样的策略较少探索。由于用户在培训过程中的兴趣和模型更新的动态,因此考虑用户的非相互作用项目的随机抽样项目作为负面的项目可能是不明智的。结果,该模型将不准确地了解用户对项目的偏好。识别信息性负面因素是具有挑战性的,因为内容的负面项目与动态变化的兴趣和模型参数相关(并且抽样过程也应该是有效的)。为此,我们建议为SR(Genni)生成负样本(项目)。根据当前SR模型对项目的学习用户偏好,在每个时间步骤中都采样了负项目。提出了有效的实施,以进一步加速生成过程,使其可扩展到大规模推荐任务。在四个公共数据集上进行的广泛实验验证了为SR提供高质量的负样本的重要性,并证明了Genni的有效性和效率。
translated by 谷歌翻译
最近,在推荐系统领域中,一个关键问题隐约可见 - 没有进行严格评估的有效基准 - 因此,这会导致不可再生的评估和不公平的比较。因此,我们从实践理论和实验的角度进行研究,目的是为严格的评估做出基准建议。关于理论研究,一系列影响整个评估链中建议性能的超级因素通过对2017 - 2020年在八个顶级会议上发表的141篇论文进行的详尽评价进行了系统的总结和分析。然后,我们将它们分类为独立于模型和模型依赖性的超因子,并相应地定义和讨论了不同的严格评估模式。在实验研究中,我们通过将这些超级因子整合以进行严格的评估来发布DaisyREC 2.0文库,从而进行了整体经验研究,以揭示不同超级效应器对建议性能的影响。在理论和实验研究的支持下,我们最终通过提出标准化程序并在六个数据集上的六个评估指标中提供10个最先进的方法来创建严格评估的基准,以作为以后研究的参考。总体而言,我们的工作阐明了建议评估中的问题,为严格的评估提供了潜在的解决方案,并为进一步调查提供了基础。
translated by 谷歌翻译