数据和算法中固有的偏见使得基于广泛的机器学习(ML)的决策系统的公平性不如最佳。为了提高此类ML决策系统的信任性,至关重要的是要意识到这些解决方案中的固有偏见并使它们对公众和开发商更加透明。在这项工作中,我们旨在提供一组解释性工具,以分析处理不同人口组时面部识别模型行为的差异。我们通过利用基于激活图的高阶统计信息来构建解释性工具来做到这一点,以将FR模型的行为差异与某些面部区域联系起来。与参考组相比,在两个数据集和两个面部识别模型上的实验结果指出了FR模型对某些人口组的反应不同。这些分析的结果有趣地与分析人体测量学差异和人类判断差异的研究结果非常相吻合。因此,这是第一项专门解释不同人口组上FR模型的偏见行为并将其直接链接到空间面部特征的研究。该代码在这里公开可用。
translated by 谷歌翻译
导出无监督或基于统计的面部图像质量评估(FIQ)方法的解释性是挑战性的。在这项工作中,我们提出了一种新颖的可解释工具,可以推导出不同FIQA决策的推理及其人脸识别(FR)性能影响。我们避免通过在处理具有不同FIQA决策的样本时对FR模型的行为进行分析来限制我们的工具对某些FIQA方法的部署。这导致可解释可以使用任何基于CNN的FIQ方法应用于使用激活映射的FIQA方法来展示用于从面部嵌入的网络的激活来展示网络的激活。为了避免FR模型中的低质量和高质量图像的一般空间激活映射之间的低鉴别,我们通过分析具有不同质量决策的图像集的FR激活图的变化来在更高的衍生空间中构建我们的解释工具。我们通过呈现帧间和内部 - FIQ方法分析,展示我们的工具并分析了四种FIQ方法的调查结果。我们提出的工具和基于其他结论的分析指出,在其他结论中,高质量的图像通常会对中心面区域以外的区域导致一致的低激活,而尽管普遍低激活,但具有低质量的图像,具有高差异在这些区域的激活。我们的解释工具还扩展到分析单个图像,在那里我们表明低质量的图像倾向于具有FR模型空间激活,其强烈地不同于来自高质量图像的预期,其中这种差异也倾向于在外面的区域内出现更多中心面部区域并且确实对应于极端姿势和面部闭合等问题。此处可以访问所提出的工具的实现[链接]。
translated by 谷歌翻译
Face image quality assessment (FIQA) attempts to improve face recognition (FR) performance by providing additional information about sample quality. Because FIQA methods attempt to estimate the utility of a sample for face recognition, it is reasonable to assume that these methods are heavily influenced by the underlying face recognition system. Although modern face recognition systems are known to perform well, several studies have found that such systems often exhibit problems with demographic bias. It is therefore likely that such problems are also present with FIQA techniques. To investigate the demographic biases associated with FIQA approaches, this paper presents a comprehensive study involving a variety of quality assessment methods (general-purpose image quality assessment, supervised face quality assessment, and unsupervised face quality assessment methods) and three diverse state-of-theart FR models. Our analysis on the Balanced Faces in the Wild (BFW) dataset shows that all techniques considered are affected more by variations in race than sex. While the general-purpose image quality assessment methods appear to be less biased with respect to the two demographic factors considered, the supervised and unsupervised face image quality assessment methods both show strong bias with a tendency to favor white individuals (of either sex). In addition, we found that methods that are less racially biased perform worse overall. This suggests that the observed bias in FIQA methods is to a significant extent related to the underlying face recognition system.
translated by 谷歌翻译
媒体报道指责人们对“偏见”',“”性别歧视“和”种族主义“的人士指责。研究文献中有共识,面部识别准确性为女性较低,妇女通常具有更高的假匹配率和更高的假非匹配率。然而,几乎没有出版的研究,旨在识别女性准确性较低的原因。例如,2019年的面部识别供应商测试将在广泛的算法和数据集中记录较低的女性准确性,并且数据集也列出了“分析原因和效果”在“我们没有做的东西”下''。我们介绍了第一个实验分析,以确定在去以前研究的数据集上对女性的较低人脸识别准确性的主要原因。在测试图像中控制相等的可见面部可见面积减轻了女性的表观更高的假非匹配率。其他分析表明,化妆平衡数据集进一步改善了女性以实现较低的虚假非匹配率。最后,聚类实验表明,两种不同女性的图像本质上比两种不同的男性更相似,潜在地占错误匹配速率的差异。
translated by 谷歌翻译
已显示现有的面部分析系统对某些人口统计亚组产生偏见的结果。由于其对社会的影响,因此必须确保这些系统不会根据个人的性别,身份或肤色歧视。这导致了在AI系统中识别和减轻偏差的研究。在本文中,我们封装了面部分析的偏置检测/估计和缓解算法。我们的主要贡献包括对拟议理解偏见的算法的系统审查,以及分类和广泛概述现有的偏置缓解算法。我们还讨论了偏见面部分析领域的开放挑战。
translated by 谷歌翻译
面部表现攻击检测(PAD)对于保护面部识别(FR)应用程序至关重要。 FR性能已被证明对某些人口统计学和非人口统计学组是不公平的。但是,面部垫的公平性是一个研究的问题,这主要是由于缺乏适当的注释数据。为了解决此问题,这项工作首先通过组合几个知名的PAD数据集,在其中提供了七个人类宣传的属性标签,从而提出了一个组合的注释数据集(CAAD-PAD)。然后,这项工作通过研究我们的CAAD-Pad上的四个面部垫方法,全面分析了一组面垫的公平及其与培训数据的性质和操作决策阈值分配(ODTA)的关系。同时代表垫子的公平性和绝对垫性能,我们引入了一种新颖的指标,即准确性平衡公平(ABF)。关于CAAD-PAD的广泛实验表明,训练数据和ODTA会引起性别,遮挡和其他属性组的不公平性。基于这些分析,我们提出了一种数据增强方法Fairswap,该方法旨在破坏身份/语义信息和指南模型以挖掘攻击线索而不是与属性相关的信息。详细的实验结果表明,Fairswap通常可以提高垫子性能和面部垫的公平性。
translated by 谷歌翻译
当前用于面部识别的模型(FR)中存在人口偏见。我们在野外(BFW)数据集中平衡的面孔是衡量种族和性别亚组偏见的代理,使一个人可以表征每个亚组的FR表现。当单个分数阈值确定样本对是真实还是冒名顶替者时,我们显示的结果是非最佳选择的。在亚组中,性能通常与全球平均水平有很大差异。因此,仅适用于与验证数据相匹配的人群的特定错误率。我们使用新的域适应性学习方案来减轻性能不平衡,以使用最先进的神经网络提取的面部特征。该技术平衡了性能,但也可以提高整体性能。该建议的好处是在面部特征中保留身份信息,同时减少其所包含的人口统计信息。人口统计学知识的去除阻止了潜在的未来偏见被注入决策。由于对个人的可用信息或推断,因此此删除可改善隐私。我们定性地探索这一点;我们还定量地表明,亚组分类器不再从提出的域适应方案的特征中学习。有关源代码和数据描述,请参见https://github.com/visionjo/facerec-bias-bfw。
translated by 谷歌翻译
Recent studies demonstrate that machine learning algorithms can discriminate based on classes like race and gender. In this work, we present an approach to evaluate bias present in automated facial analysis algorithms and datasets with respect to phenotypic subgroups. Using the dermatologist approved Fitzpatrick Skin Type classification system, we characterize the gender and skin type distribution of two facial analysis benchmarks, IJB-A and Adience. We find that these datasets are overwhelmingly composed of lighter-skinned subjects (79.6% for IJB-A and 86.2% for Adience) and introduce a new facial analysis dataset which is balanced by gender and skin type. We evaluate 3 commercial gender classification systems using our dataset and show that darker-skinned females are the most misclassified group (with error rates of up to 34.7%). The maximum error rate for lighter-skinned males is 0.8%. The substantial disparities in the accuracy of classifying darker females, lighter females, darker males, and lighter males in gender classification systems require urgent attention if commercial companies are to build genuinely fair, transparent and accountable facial analysis algorithms.
translated by 谷歌翻译
广泛认为,面部识别准确性存在“性别差距”,女性具有较高的错误匹配和错误的非匹配率。但是,关于这种性别差距的原因,相对较少了解。甚至最近有关人口影响的NIST报告也列出了“我们没有做的事情”下的“分析因果”。我们首先证明女性和男性发型具有影响面部识别准确性的重要差异。特别是,与女性相比,男性面部毛发有助于在不同男性面孔之间产生更大的外观平均差异。然后,我们证明,当用来估计识别精度的数据在性别之间保持平衡,以使发型如何阻塞面部时,最初观察到的性别差距在准确性上大大消失。我们为两个不同的匹配者展示了这一结果,并分析了白种人和非裔美国人的图像。这些结果表明,对准确性的人口统计学差异的未来研究应包括检查测试数据的平衡质量,作为问题制定的一部分。为了促进可重复的研究,将公开使用此研究中使用的匹配项,属性分类器和数据集。
translated by 谷歌翻译
在本文中,我们提出了一个新颖的解释性框架,旨在更好地理解面部识别模型作为基本数据特征的表现(受保护的属性:性别,种族,年龄;非保护属性:面部毛发,化妆品,配件,脸部,面部,面部,面部,面部,面部,它们被测试的变化的方向和阻塞,图像失真,情绪)。通过我们的框架,我们评估了十种最先进的面部识别模型,并在两个数据集上的安全性和可用性方面进行了比较,涉及基于性别和种族的六个小组。然后,我们分析图像特征对模型性能的影响。我们的结果表明,当考虑多归因组时,单属分析中出现的趋势消失或逆转,并且性能差异也与非保护属性有关。源代码:https://cutt.ly/2xwrlia。
translated by 谷歌翻译
由于Covid-19的情况,面部面具已成为我们日常生活的主要部分。在许多公共场所佩戴嘴巴保护是在许多公共场所的授权,以防止Covid-19病毒的传播。然而,面部面罩影响人脸识别的性能,因为覆盖了大面积的面积。穿着面罩在协作环境中穿着面罩对面部识别系统的不同部件的影响是仍然被全面研究的问题。这项工作研究首次通过利用不同自然的人的面部图像质量评估方法佩戴面部掩模对面部图像质量的影响。这旨在更好地了解面部掩模对整个系统的脸部识别操作的影响。此外,我们进一步研究了模拟掩模对面部图像效用的影响与真实面罩相比。我们讨论了对面部图像质量的掩模效果与自动系统和人类专家面临的面部验证性能之间的相关性,表明这两个因素之间的一致趋势。通过在没有掩盖面上的综合产生数字面部面罩,在包含(1)覆盖面,(2)真实面罩和(3)模拟面罩的数据库上进行评估。最后,提供了对所选质量评估方法集的质量得分的面积的视觉解释,以便更深入地了解掩蔽和非掩盖面中的网络决策的差异以及其他变化。
translated by 谷歌翻译
由于隐私,透明度,问责制和缺少程序保障的担忧,印度的面部加工系统的增加越来越多。与此同时,我们也很少了解这些技术如何在印度13.4亿种群的不同特征,特征和肤色上表现出来。在本文中,我们在印度脸部的数据集中测试四个商用面部加工工具的面部检测和面部分析功能。该工具在面部检测和性别和年龄分类功能中显示不同的错误率。与男性相比,印度女性面的性别分类错误率始终如一,最高的女性错误率为14.68%。在某些情况下,这种错误率远高于其他国籍的女性之前的研究表明。年龄分类错误也很高。尽管从一个人的实际年龄从一个人的实际年龄到10年来考虑到可接受的误差率,但年龄预测失败的速度为14.3%至42.2%。这些发现指向面部加工工具的准确性有限,特别是某些人口组,在采用此类系统之前需要更关键的思维。
translated by 谷歌翻译
能够分析和量化人体或行为特征的系统(称为生物识别系统)正在使用和应用变异性增长。由于其从手工制作的功能和传统的机器学习转变为深度学习和自动特征提取,因此生物识别系统的性能增加到了出色的价值。尽管如此,这种快速进步的成本仍然尚不清楚。由于其不透明度,深层神经网络很难理解和分析,因此,由错误动机动机动机的隐藏能力或决定是潜在的风险。研究人员已经开始将注意力集中在理解深度神经网络及其预测的解释上。在本文中,我们根据47篇论文的研究提供了可解释生物识别技术的当前状态,并全面讨论了该领域的发展方向。
translated by 谷歌翻译
2019年,英国的移民和庇护室的上部法庭驳回了基于其他差异的生物识别系统产出的决定。在生物识别数据库中发现了庇护所寻求者的指纹,这与上诉人的账户相矛盾。法庭发现这一证据明确透明,否认庇护索赔。如今,生物识别系统的扩散正在围绕其政治,社会和道德意义塑造公众辩论。然而,虽然对移动控制的种族式使用这种技术的担忧一直在上升,但对生物识别行业的投资和创新正在增加大幅增加。此外,生物识别技术最近也已经采用了公平,以减轻生物识别学的偏见和歧视。然而,算法公平不能在破损或预期目的的情况下分配正义,这是为了区分,例如在边境部署的生物识别。在本文中,我们提供了最近关于生物识别公平性辩论的批判性阅读,并展示了其在机器学习和关键边界研究的公平研究中的局限性。在以前的公平演示中,我们证明了生物识别公平标准是数学上的互斥。然后,纸张继续验证说明公平的生物识别系统,通过从先前的作品中再现实验。最后,我们通过在边境的辩论中讨论生物识别性的公平性的政治。我们声称偏见和错误率对公民和寻求庇护者产生了不同的影响。公平已经在生物识别学室内黯然失色,专注于算法的人口偏见和伦理话语,而不是检查这些系统如何重现历史和政治不公正。
translated by 谷歌翻译
随着面部生物识别技术的广泛采用,在自动面部识别(FR)应用中区分相同的双胞胎和非双胞胎外观相似的问题变得越来越重要。由于同卵双胞胎和外观相似的面部相似性很高,因此这些面对对面部识别工具表示最困难的病例。这项工作介绍了迄今为止汇编的最大的双胞胎数据集之一,以应对两个挑战:1)确定相同双胞胎和2)的面部相似性的基线度量和2)应用此相似性措施来确定多ppelgangers的影响或外观 - Alikes,关于大面部数据集的FR性能。面部相似性度量是通过深度卷积神经网络确定的。该网络经过量身定制的验证任务进行培训,旨在鼓励网络在嵌入空间中将高度相似的面对对组合在一起,并达到0.9799的测试AUC。所提出的网络为任何两个给定的面提供了定量相似性评分,并已应用于大规模面部数据集以识别相似的面对对。还执行了一个附加分析,该分析还将面部识别工具返回的比较分数以及提议网络返回的相似性分数。
translated by 谷歌翻译
The emergence of COVID-19 has had a global and profound impact, not only on society as a whole, but also on the lives of individuals. Various prevention measures were introduced around the world to limit the transmission of the disease, including face masks, mandates for social distancing and regular disinfection in public spaces, and the use of screening applications. These developments also triggered the need for novel and improved computer vision techniques capable of (i) providing support to the prevention measures through an automated analysis of visual data, on the one hand, and (ii) facilitating normal operation of existing vision-based services, such as biometric authentication schemes, on the other. Especially important here, are computer vision techniques that focus on the analysis of people and faces in visual data and have been affected the most by the partial occlusions introduced by the mandates for facial masks. Such computer vision based human analysis techniques include face and face-mask detection approaches, face recognition techniques, crowd counting solutions, age and expression estimation procedures, models for detecting face-hand interactions and many others, and have seen considerable attention over recent years. The goal of this survey is to provide an introduction to the problems induced by COVID-19 into such research and to present a comprehensive review of the work done in the computer vision based human analysis field. Particular attention is paid to the impact of facial masks on the performance of various methods and recent solutions to mitigate this problem. Additionally, a detailed review of existing datasets useful for the development and evaluation of methods for COVID-19 related applications is also provided. Finally, to help advance the field further, a discussion on the main open challenges and future research direction is given.
translated by 谷歌翻译
变形攻击是一种表现攻击的一种形式,近年来引起了人们越来越多的关注。可以成功验证变形图像到多个身份。因此,此操作提出了与旅行或身份文件的能力有关的严重安全问题,该文件被证实属于多个人。以前的作品涉及了变形攻击图像质量的问题,但是,主要目标是定量证明产生的变形攻击的现实外观。我们认为,与真正的样品相比,变形过程可能会影响面部识别(FR)中的感知图像质量和图像实用程序。为了研究这一理论,这项工作对变形对面部图像质量的影响进行了广泛的分析,包括一般图像质量度量和面部图像实用程序测量。该分析不仅限于单个变形技术,而是使用十种不同的质量度量来研究六种不同的变形技术和五个不同的数据源。该分析揭示了变形攻击的质量得分与通过某些质量度量测量的真正样品的质量得分之间的一致性。我们的研究进一步建立在这种效果的基础上,并研究基于质量得分进行无监督的变形攻击检测(MAD)的可能性。我们的研究探索了intra和数据库间的可检测性,以评估这种检测概念在不同的变形技术和真正的源源源上的普遍性。我们的最终结果指出,一组质量措施(例如岩石和CNNIQA)可用于执行无监督和普遍的MAD,正确的分类精度超过70%。
translated by 谷歌翻译
在过去的几十年里,机器和深度学习界在挑战性的任务中庆祝了巨大成就,如图像分类。人工神经网络的深度建筑与可用数据的宽度一起使得可以描述高度复杂的关系。然而,仍然不可能完全捕捉深度学习模型已经了解到的深度学习模型并验证它公平,而不会产生偏见,特别是在临界任务中,例如在医学领域产生的问题。这样的任务的一个示例是检测面部图像中的不同面部表情,称为动作单位。考虑到这项特定任务,我们的研究旨在为偏见提供透明度,具体与性别和肤色有关。我们训练一个神经网络进行动作单位分类,并根据其准确性和基于热量的定性分析其性能。对我们的结果的结构化审查表明我们能够检测到偏见。尽管我们不能从我们的结果得出结论,但较低的分类表现完全来自性别和肤色偏差,这些偏差必须得到解决,这就是为什么我们通过提出关于如何避免检测到的偏差的建议。
translated by 谷歌翻译
在过去的几年中,涉及AI驱动警察工作的歧视性做法一直引起了很多争议,Compas,Predpol和Shotspotter等算法被指控不公平地影响少数群体。同时,机器学习中的公平性,尤其是计算机视觉的问题,已经成为越来越多的学术工作的主题。在本文中,我们研究了这些区域如何相交。我们提供有关这些实践如何存在的信息以及减轻它们的困难。然后,我们检查目前正在开发的三个应用程序,以了解它们对公平性构成的风险以及如何减轻这些风险。
translated by 谷歌翻译
在人脸识别系统中实现高性能的必要因素是其样本的质量。由于这些系统涉及各种日常生活,因此对人类可以理解的面部识别过程具有很强的需要。在这项工作中,我们介绍了像素级面部图像质量的概念,该概念确定面部图像中像素的效用以进行识别。鉴于任意面部识别网络,在这项工作中,我们提出了一种无培训方法来评估面部图像的像素级质量。为此,估计输入图像的特定模型质量值并用于构建特定于样本的质量回归模型。基于该模型,基于质量的梯度被回到传播并转换为像素级质量估计。在实验中,我们基于真实和人工扰动的基于实际和人工障碍来定量和定量地研究了像素级质量的有意义性。在所有场景中,结果表明,所提出的解决方案产生有意义的像素级质量。该代码可公开可用。
translated by 谷歌翻译