小组工作是在教育环境中的一项普遍活动,在该活动中,学生通常会根据他们的偏好将学生分为特定于主题的小组。小组应尽可能地反映学生的愿望。通常,由于研究表明学生在多样化的群体中的学习可能会更好,因此最终的群体也应根据性别或种族等受保护的属性进行平衡。此外,平衡小组红衣主义也是整个小组公平工作负载分配的重要要求。在本文中,我们介绍了多面能力(MFC)分组问题,该问题将学生公平地分配给非重叠的小组,同时确保平衡的组红衣(具有下限和上限),并最大程度地利用成员的多样性。受保护的属性。我们提出了两种方法:一种启发式方法和一种基于背包的方法来获得MFC分组。真实数据集和半合成数据集的实验表明,我们提出的方法可以很好地满足学生的偏好,并分别提供有关基数和受保护属性的平衡和多样化的群体。
translated by 谷歌翻译
Real-life tools for decision-making in many critical domains are based on ranking results. With the increasing awareness of algorithmic fairness, recent works have presented measures for fairness in ranking. Many of those definitions consider the representation of different ``protected groups'', in the top-$k$ ranked items, for any reasonable $k$. Given the protected groups, confirming algorithmic fairness is a simple task. However, the groups' definitions may be unknown in advance. In this paper, we study the problem of detecting groups with biased representation in the top-$k$ ranked items, eliminating the need to pre-define protected groups. The number of such groups possible can be exponential, making the problem hard. We propose efficient search algorithms for two different fairness measures: global representation bounds, and proportional representation. Then we propose a method to explain the bias in the representations of groups utilizing the notion of Shapley values. We conclude with an experimental study, showing the scalability of our approach and demonstrating the usefulness of the proposed algorithms.
translated by 谷歌翻译
我们重新审视了Chierichetti等人首先引入的公平聚类问题,该问题要求每个受保护的属性在每个集群中具有近似平等的表示。即,余额财产。现有的公平聚类解决方案要么是不可扩展的,要么无法在聚类目标和公平之间实现最佳权衡。在本文中,我们提出了一种新的公平概念,我们称之为$ tau $ $ $ - fair公平,严格概括了余额财产,并实现了良好的效率与公平折衷。此外,我们表明,简单的基于贪婪的圆形算法有效地实现了这一权衡。在更一般的多价受保护属性的设置下,我们严格地分析了算法的理论特性。我们的实验结果表明,所提出的解决方案的表现优于所有最新算法,即使对于大量簇,也可以很好地工作。
translated by 谷歌翻译
将许多排名者的偏好结合到一个单一共识排名中对于从招聘和入学到贷款的结果应用至关重要。尽管已经对群体公平进行分类进行了广泛的研究,但排名,尤其是等级聚集的群体公平仍处于起步阶段。最近的工作介绍了合并排名的公平等级聚合的概念,但仅限于候选人具有单个二进制保护属性的情况,即仅分为两组。然而,如何建立共识排名仍然是一个开放的问题,该排名代表了所有排名者的偏好,同时确保对具有多个受保护属性的候选人(例如性别,种族和国籍)进行公平待遇。在这项工作中,我们是第一个定义和解决此开放的多属性公平共识排名(MFCR)问题的人。作为基础,我们为名为Mani-Rank的排名设计了新颖的团体公平标准,以确保对由个体受保护属性及其交集定义的群体进行公平处理。利用摩尼级标准,我们开发了一系列算法,这些算法首次解决了MFCR问题。我们对各种共识情景的实验研究表明,我们的MFCR方法是实现交叉和受保护属性公平性的唯一方法,同时也代表了通过许多基本排名表达的偏好。我们对绩效奖学金的现实案例研究说明了我们的MFCR方法对减轻多个受保护属性及其交叉点的偏见的有效性。这是出现在ICDE 2022中的“ Mani-Rank:Mani-Rank:多个属性和交叉组公平性”的扩展版本。
translated by 谷歌翻译
由于决策越来越依赖机器学习和(大)数据,数据驱动AI系统的公平问题正在接受研究和行业的增加。已经提出了各种公平知识的机器学习解决方案,该解决方案提出了数据,学习算法和/或模型输出中的公平相关的干预措施。然而,提出新方法的重要组成部分正在经验上对其进行验证在代表现实和不同的设置的基准数据集上。因此,在本文中,我们概述了用于公平知识机器学习的真实数据集。我们专注于表格数据作为公平感知机器学习的最常见的数据表示。我们通过识别不同属性之间的关系,特别是w.r.t.来开始分析。受保护的属性和类属性,使用贝叶斯网络。为了更深入地了解数据集中的偏见和公平性,我们调查使用探索性分析的有趣关系。
translated by 谷歌翻译
预测学生的学习成绩是教育数据挖掘(EDM)的关键任务之一。传统上,这种模型的高预测质量被认为至关重要。最近,公平和歧视W.R.T.受保护的属性(例如性别或种族)引起了人们的关注。尽管EDM中有几种公平感知的学习方法,但对这些措施的比较评估仍然缺失。在本文中,我们评估了各种教育数据集和公平感知学习模型上学生绩效预测问题的不同群体公平措施。我们的研究表明,公平度量的选择很重要,对于选择等级阈值的选择同样。
translated by 谷歌翻译
参与式预算(PB)是选民决定如何分配共同预算的过程;最常见的是普通人所做的 - 特别是一些市政府的居民 - 决定市政预算的一小部分。从社交选择的角度来看,PB的现有研究几乎专注于设计了满足研究界认为“可望”的某些公理性质的计算上有效的聚集方法。我们的工作通过用户学习(n = 215)补充了这一研究,涉及若干实验,旨在识别在简单的PB设置中认为是公平或可取的潜在选民(即非专家)。我们的研究结果表明,一些现代PB聚合技术与用户的期望大大不同,而其他更多的标准方法,则提供更多的对齐结果。我们还确定了非专家考虑的一些可能的差异\说{可取的}以及如何在PB背景下认为“公平”的概念。我们共同采取,我们的结果可用于帮助研究界确定适当的PB聚集方法以便在实践中使用。
translated by 谷歌翻译
Recommender systems can strongly influence which information we see online, e.g., on social media, and thus impact our beliefs, decisions, and actions. At the same time, these systems can create substantial business value for different stakeholders. Given the growing potential impact of such AI-based systems on individuals, organizations, and society, questions of fairness have gained increased attention in recent years. However, research on fairness in recommender systems is still a developing area. In this survey, we first review the fundamental concepts and notions of fairness that were put forward in the area in the recent past. Afterward, through a review of more than 150 scholarly publications, we present an overview of how research in this field is currently operationalized, e.g., in terms of general research methodology, fairness measures, and algorithmic approaches. Overall, our analysis of recent works points to specific research gaps. In particular, we find that in many research works in computer science, very abstract problem operationalizations are prevalent, and questions of the underlying normative claims and what represents a fair recommendation in the context of a given application are often not discussed in depth. These observations call for more interdisciplinary research to address fairness in recommendation in a more comprehensive and impactful manner.
translated by 谷歌翻译
在本文中,我们采用一种公理方法来定义满足一组一致性和公平公理的随机组排名。我们表明,这导致了通过合并来自不同敏感人群组的给定排名列表的排名,同时满足了最高等级中每个组的表示下限和上限,从而导致了唯一的分布$ \ MATHCAL {D} $。与确定性排名相比,随机或随机排名在最近的文献中引起了人们的关注。即使存在隐式偏见,不完整的相关信息,或者只有序数排名而不是相关性分数或实用程序值,我们的问题公式即使有效。我们提出了三种算法,以从上面提到的分布$ \ mathcal {d} $中采样一个随机的集体排名。我们的第一个算法样本排名从分配$ \ epsilon $ -close到$ \ nathcal {d} $的总变化距离,并且在所有输入参数中都在运行时间多项式,而$ 1/\ epsilon $,有足够的差距在所有组的上限和下限表示约束之间。我们的第二个算法示例从$ \ Mathcal {d} $恰好在组数量的时间指数中排名。我们的第三个算法从$ \ mathcal {d} $恰好从$ \ mathcal {d} $示例随机组公平排名,并且当每个组的上限和下限之间的差距很小时,比第一个算法更快。我们在实验中验证了上述算法的上述保证,该算法在最高排名中的群体公平性和现实世界数据集的每个等级中的代表性。
translated by 谷歌翻译
多样性最大化是数据汇总,Web搜索和推荐系统中广泛应用的基本问题。给定$ n $元素的$ x $元素,它要求选择一个$ k \ ll n $元素的子集$ s $,具有最大\ emph {多样性},这是由$ s $中元素之间的差异量化的。在本文中,我们关注流媒体环境中公平限制的多样性最大化问题。具体而言,我们考虑了最大值的多样性目标,该目标选择了一个子集$ s $,该子集$ s $最大化了其中任何一对不同元素之间的最小距离(不同)。假设集合$ x $通过某些敏感属性(例如性别或种族)将$ m $ discoint组分为$ m $ discoint组,确保\ emph {fairness}要求所选的子集$ s $包含每个组$ i的$ k_i $ e元素\在[1,m] $中。流算法应在一个通过中顺序处理$ x $,并返回具有最大\ emph {多样性}的子集,同时保证公平约束。尽管对多样性的最大化进行了广泛的研究,但唯一可以与最大值多样性目标和公平性约束的唯一已知算法对数据流非常低效。由于多样性最大化通常是NP-HARD,因此我们提出了两个在数据流中最大化的公平多样性的近似算法,其中第一个是$ \ frac {1- \ varepsilon} {4} {4} $ - 近似于$ m = 2 $,其中$ \ varepsilon \ in(0,1)$,第二个实现了$ \ frac {1- \ varepsilon} {3m+2} $ - 任意$ m $的近似值。现实世界和合成数据集的实验结果表明,两种算法都提供了与最新算法相当的质量解决方案,同时在流式设置中运行多个数量级。
translated by 谷歌翻译
近年来,在各种应用程序中,在减轻决策中的不公平或歧视方面,公平感知机器学习的迅速发展。但是,对公平意识的多目标优化的关注要少得多,这确实是在现实生活中通常看到的,例如公平资源分配问题和数据驱动的多目标优化问题。本文旨在从公平的角度阐明和扩大我们对多目标优化的理解。为此,我们首先讨论多目标优化中的用户偏好,然后探索其与机器学习和多目标优化的公平关系。在上述讨论之后,提出了公平意识的多目标优化的代表性案例,进一步阐述了在传统的多目标优化,数据驱动的优化和联合优化中公平性的重要性。最后,解决了公平意识的多目标优化方面的挑战和机遇。我们希望本文在优化的背景下朝着理解公平迈出一步,并促进对公平意识的多目标优化的研究兴趣。
translated by 谷歌翻译
艺术在公共空间中的放置可能会对谁感到归属感产生重大影响。在城市中,公共艺术传达了其利益和文化受到青睐的传播。在本文中,我们提出了一种具有局部约束的图形匹配方法,以构建一个以支持包容空间的方式选择公共艺术的策展工具。我们通过利用Schelling的隔离模型来开发成本矩阵。使用成本矩阵作为输入,通过投影梯度下降来解决优化问题,以获得软分配矩阵。我们讨论正式化术语以设置策展约束。我们的优化计划通过满足最低代表和暴露标准,将艺术品分配给公共空间和墙壁,以取消优先级的“小组内”偏好。我们利用现有文献来为我们的算法输出开发公平度量。我们将塔夫茨大学作为测试台,我们评估方法的有效性,并从策展和公平的角度讨论其潜在的陷阱。
translated by 谷歌翻译
CS中的主要出版物场所进行的同行评审会议务必依赖每篇论文的高素质审阅者。由于这些会议的规模越来越大,它们的工作时间表以及最近明显不诚实的行为激增,现在没有其他选择以自动化的方式进行这种匹配。本文研究了一种新颖的审阅者纸匹配方法,该方法最近在第35届AAAI人工智能会议(AAAI 2021)中部署,此后已被包括ICML 2022,AAAAI 2022和IJCAI 2022的其他会议(全部或部分)采用(完全或部分) 。该方法具有三个主要元素:(1)收集和处理输入数据以识别有问题的匹配并生成审阅者纸得分; (2)制定和解决优化问题,以找到良好的审阅者纸匹配; (3)两阶段的审查过程,将审查资源从可能被拒绝的论文转移到更接近决策界的文件。本文还根据对真实数据的大量事后分析进行了对这些创新的评估,包括与AAAI先前(2020年)迭代中使用的匹配算法进行比较 - 并通过其他数值实验对此进行了补充。
translated by 谷歌翻译
我们研究了通过中等数量的成对比较查询引发决策者偏好的问题,以使它们成为特定问题的高质量推荐。我们受到高赌场域中的应用程序的推动,例如选择分配稀缺资源的政策以满足基本需求(例如,用于移植或住房的肾脏,因为那些经历无家可归者),其中需要由(部分)提出引出的偏好。我们在基于偏好的偏好中模拟不确定性,并调查两个设置:a)脱机偏出设置,其中所有查询都是一次,b)在线诱因设置,其中按时间顺序选择查询。我们提出了这些问题的强大优化制剂,这些问题集成了偏好诱导和推荐阶段,其目的是最大化最坏情况的效用或最小化最坏情况的后悔,并研究其复杂性。对于离线案例,在活动偏好诱导与决策信息发现的两个半阶段的稳健优化问题的形式中,我们提供了我们通过列解决的混合二进制线性程序的形式提供了等效的重构。 -Constraint生成。对于在线设置,主动偏好学习采用多级强大优化问题的形式与决策依赖的信息发现,我们提出了一种保守的解决方案方法。合成数据的数值研究表明,我们的方法在最坏情况级别,后悔和效用方面从文献中倾斜最先进的方法。我们展示了我们的方法论如何用于协助无家可归的服务机构选择分配不同类型的稀缺住房资源的政策,以遇到无家可归者。
translated by 谷歌翻译
Applications such as employees sharing office spaces over a workweek can be modeled as problems where agents are matched to resources over multiple rounds. Agents' requirements limit the set of compatible resources and the rounds in which they want to be matched. Viewing such an application as a multi-round matching problem on a bipartite compatibility graph between agents and resources, we show that a solution (i.e., a set of matchings, with one matching per round) can be found efficiently if one exists. To cope with situations where a solution does not exist, we consider two extensions. In the first extension, a benefit function is defined for each agent and the objective is to find a multi-round matching to maximize the total benefit. For a general class of benefit functions satisfying certain properties (including diminishing returns), we show that this multi-round matching problem is efficiently solvable. This class includes utilitarian and Rawlsian welfare functions. For another benefit function, we show that the maximization problem is NP-hard. In the second extension, the objective is to generate advice to each agent (i.e., a subset of requirements to be relaxed) subject to a budget constraint so that the agent can be matched. We show that this budget-constrained advice generation problem is NP-hard. For this problem, we develop an integer linear programming formulation as well as a heuristic based on local search. We experimentally evaluate our algorithms on synthetic networks and apply them to two real-world situations: shared office spaces and matching courses to classrooms.
translated by 谷歌翻译
The fair-ranking problem, which asks to rank a given set of items to maximize utility subject to group fairness constraints, has received attention in the fairness, information retrieval, and machine learning literature. Recent works, however, observe that errors in socially-salient (including protected) attributes of items can significantly undermine fairness guarantees of existing fair-ranking algorithms and raise the problem of mitigating the effect of such errors. We study the fair-ranking problem under a model where socially-salient attributes of items are randomly and independently perturbed. We present a fair-ranking framework that incorporates group fairness requirements along with probabilistic information about perturbations in socially-salient attributes. We provide provable guarantees on the fairness and utility attainable by our framework and show that it is information-theoretically impossible to significantly beat these guarantees. Our framework works for multiple non-disjoint attributes and a general class of fairness constraints that includes proportional and equal representation. Empirically, we observe that, compared to baselines, our algorithm outputs rankings with higher fairness, and has a similar or better fairness-utility trade-off compared to baselines.
translated by 谷歌翻译
当节点具有人口统计属性时,概率图形模型中社区结构的推理可能不会与公平约束一致。某些人口统计学可能在某些检测到的社区中过度代表,在其他人中欠代表。本文定义了一个新的$ \ ell_1 $ -regulared伪似然方法,用于公平图形模型选择。特别是,我们假设真正的基础图表​​中存在一些社区或聚类结构,我们寻求从数据中学习稀疏的无向图形及其社区,使得人口统计团体在社区内相当代表。我们的优化方法使用公平的人口统计奇偶校验定义,但框架很容易扩展到其他公平的定义。我们建立了分别,连续和二进制数据的高斯图形模型和Ising模型的提出方法的统计一致性,证明了我们的方法可以以高概率恢复图形及其公平社区。
translated by 谷歌翻译
尽管机器学习和基于排名的系统在广泛用于敏感决策过程(例如,确定职位候选者,分配信用评分)时,他们对成果的意外偏见充满了疑虑,这使算法公平(例如,人口统计学公平)平等,机会平等)的目标。 “算法追索”提供了可行的恢复动作,通过修改属性来改变不良结果。我们介绍了排名级别的追索权公平的概念,并开发了一个“追索意识的排名”解决方案,该解决方案满足了排名的追索公平约束,同时最大程度地减少了建议的修改成本。我们的解决方案建议干预措施可以重新排序数据库记录的排名列表并减轻组级别的不公平性;具体而言,子组的不成比例表示和追索权成本不平衡。此重新排列可确定对数据点的最小修改,这些属性修改根据其易于解决方案进行了加权。然后,我们提出了一个有效的基于块的扩展,该扩展可以在任何粒度上重新排序(例如,银行贷款利率的多个括号,搜索引擎结果的多页)。对真实数据集的评估表明,尽管现有方法甚至可能加剧诉求不公平,但我们的解决方案 - raguel-可以显着改善追索性的公平性。 Raguel通过反事实生成和重新排列的结合过程优于改善追索性公平的替代方案,同时对大型数据集保持了有效的效率。
translated by 谷歌翻译
We introduce a new rule-based optimization method for classification with constraints. The proposed method takes advantage of linear programming and column generation, and hence, is scalable to large datasets. Moreover, the method returns a set of rules along with their optimal weights indicating the importance of each rule for learning. Through assigning cost coefficients to the rules and introducing additional constraints, we show that one can also consider interpretability and fairness of the results. We test the performance of the proposed method on a collection of datasets and present two case studies to elaborate its different aspects. Our results show that a good compromise between interpretability and fairness on the one side, and accuracy on the other side, can be obtained by the proposed rule-based learning method.
translated by 谷歌翻译
我们建议社会福利优化作为在AI系统中正式化公平性的一般范式。我们认为,优化模型允许将广泛的公平标准作为社会福利功能,同时使AI充分利用高级的解决方案技术。与其试图减少选定群体之间的偏见,不如将公平性纳入社会福利职能来实现所有群体。这也允许对所涉个人的福利进行更全面的会计。我们展示了如何使用内部处理或后处理方法将社会福利优化与基于规则的AI和机器学习集成在一起。我们提出了案例研究的经验结果,作为对这些整合策略的有效性和潜力的初步研究。
translated by 谷歌翻译