最近的作品表明,基于GAN的变形攻击的可行性与基于具有里程碑意义的方法的成功率相似。这种新型的“深”形态可能需要开发新的足够检测器来保护面部识别系统。我们根据光谱特征和LBP直方图特征以及CNN模型探索简单的深色检测基准,包括在dataset和交叉数据库中。我们观察到,简单的基于LBP的系统已经在数据内设置中已经非常准确,但是与概括斗争,这种现象通过将其中的几个系统融合在一起而部分缓解了得分级别。我们得出的结论是,对GAN图像检测有效的有效的重新连接是最有效的总体,达到了完美的准确性。但是,我们注意到,基于LBP的系统保持一定的兴趣:除了其较低的计算要求和相对于CNN的可解释性增加,LBP+Resnet Fusions有时还会显示性能提高,而基于RESNET的性能也暗示基于LBP的系统可以集中精力关于有意义的信号,不一定是由CNN检测器拾取的。
translated by 谷歌翻译
变形攻击是一种表现攻击的一种形式,近年来引起了人们越来越多的关注。可以成功验证变形图像到多个身份。因此,此操作提出了与旅行或身份文件的能力有关的严重安全问题,该文件被证实属于多个人。以前的作品涉及了变形攻击图像质量的问题,但是,主要目标是定量证明产生的变形攻击的现实外观。我们认为,与真正的样品相比,变形过程可能会影响面部识别(FR)中的感知图像质量和图像实用程序。为了研究这一理论,这项工作对变形对面部图像质量的影响进行了广泛的分析,包括一般图像质量度量和面部图像实用程序测量。该分析不仅限于单个变形技术,而是使用十种不同的质量度量来研究六种不同的变形技术和五个不同的数据源。该分析揭示了变形攻击的质量得分与通过某些质量度量测量的真正样品的质量得分之间的一致性。我们的研究进一步建立在这种效果的基础上,并研究基于质量得分进行无监督的变形攻击检测(MAD)的可能性。我们的研究探索了intra和数据库间的可检测性,以评估这种检测概念在不同的变形技术和真正的源源源上的普遍性。我们的最终结果指出,一组质量措施(例如岩石和CNNIQA)可用于执行无监督和普遍的MAD,正确的分类精度超过70%。
translated by 谷歌翻译
深度神经网络在人类分析中已经普遍存在,增强了应用的性能,例如生物识别识别,动作识别以及人重新识别。但是,此类网络的性能通过可用的培训数据缩放。在人类分析中,对大规模数据集的需求构成了严重的挑战,因为数据收集乏味,廉价,昂贵,并且必须遵守数据保护法。当前的研究研究了\ textit {合成数据}的生成,作为在现场收集真实数据的有效且具有隐私性的替代方案。这项调查介绍了基本定义和方法,在生成和采用合成数据进行人类分析时必不可少。我们进行了一项调查,总结了当前的最新方法以及使用合成数据的主要好处。我们还提供了公开可用的合成数据集和生成模型的概述。最后,我们讨论了该领域的局限性以及开放研究问题。这项调查旨在为人类分析领域的研究人员和从业人员提供。
translated by 谷歌翻译
深度学习已成功地用于解决从大数据分析到计算机视觉和人级控制的各种复杂问题。但是,还采用了深度学习进步来创建可能构成隐私,民主和国家安全威胁的软件。最近出现的那些深度学习驱动的应用程序之一是Deepfake。 DeepFake算法可以创建人类无法将它们与真实图像区分开的假图像和视频。因此,可以自动检测和评估数字视觉媒体完整性的技术的建议是必不可少的。本文介绍了一项用于创造深击的算法的调查,更重要的是,提出的方法旨在检测迄今为止文献中的深击。我们对与Deepfake技术有关的挑战,研究趋势和方向进行了广泛的讨论。通过回顾深层味和最先进的深层检测方法的背景,本研究提供了深入的深层技术的概述,并促进了新的,更强大的方法的发展,以应对日益挑战性的深击。
translated by 谷歌翻译
横梁面部识别(CFR)旨在识别个体,其中比较面部图像源自不同的感测模式,例如红外与可见的。虽然CFR由于与模态差距相关的面部外观的显着变化,但CFR具有比经典的面部识别更具挑战性,但它在具有有限或挑战的照明的场景中,以及在呈现攻击的情况下,它是优越的。与卷积神经网络(CNNS)相关的人工智能最近的进展使CFR的显着性能提高了。由此激励,这项调查的贡献是三倍。我们提供CFR的概述,目标是通过首先正式化CFR然后呈现具体相关的应用来比较不同光谱中捕获的面部图像。其次,我们探索合适的谱带进行识别和讨论最近的CFR方法,重点放在神经网络上。特别是,我们提出了提取和比较异构特征以及数据集的重新访问技术。我们枚举不同光谱和相关算法的优势和局限性。最后,我们讨论了研究挑战和未来的研究线。
translated by 谷歌翻译
变形面的图像对面对识别的安全系统构成了严重威胁,因为它们可用于非法验证具有单个变形图像的多人身份。现代检测算法学会使用真实个体的真实图像来识别这种变形攻击。这种方法提出了各种隐私问题,并限制了公开培训数据的数量。在本文中,我们探讨了仅在不存在的人及其各自的形态上接受训练的检测算法的功效。为此,对两种专用算法进行了合成数据的训练,然后在三个现实世界数据集上进行了评估,即:FRLL-MORPHS,FERET-MORPHS和FRGC-MORPHS。我们的结果表明,合成的面部图像可以成功用于检测算法的训练过程,并将其概括为现实世界情景。
translated by 谷歌翻译
面部变形攻击检测(MAD)是当今面部识别领域中最具挑战性的任务之一。在这项工作中,我们引入了一种新颖的深度学习策略,用于单个图像面部变形检测,这意味着在复杂的分类方案中歧视了变形的面部图像以及复杂的面部识别任务。它针对学习深度面部特征,这些面部特征带有有关这些功能真实性的信息。我们的工作还介绍了一些其他贡献:公众和易于使用的面部变形检测基准和我们野生数据集过滤策略的结果。我们称之为Mordeephy的方法实现了最先进的表现,并证明了将转变检测任务的任务推广到看不见的情况的重要能力。
translated by 谷歌翻译
本文介绍了基于2022年国际生物识别技术联合会议(IJCB 2022)举行的基于隐私感知合成训练数据(SYN-MAD)的面部变形攻击检测的摘要。该竞赛吸引了来自学术界和行业的12个参与团队,并在11个不同的国家 /地区举行。最后,参与团队提交了七个有效的意见书,并由组织者进行评估。竞争是为了介绍和吸引解决方案的解决方案,这些解决方案涉及检测面部变形攻击的同时,同时出于道德和法律原因保护人们的隐私。为了确保这一点,培训数据仅限于组织者提供的合成数据。提交的解决方案提出了创新,导致在许多实验环境中表现优于所考虑的基线。评估基准现在可在以下网址获得:https://github.com/marcohuber/syn-mad-2022。
translated by 谷歌翻译
近年来,视觉伪造达到了人类无法识别欺诈的复杂程度,这对信息安全构成了重大威胁。出现了广泛的恶意申请,例如名人的假新闻,诽谤或勒索,政治战中的政治家冒充,以及谣言的传播吸引观点。结果,已经提出了一种富有的视觉验证技术,以试图阻止这种危险的趋势。在本文中,我们使用全面的和经验方法,提供了一种基准,可以对视觉伪造和视觉取证进行深入的洞察。更具体地,我们开发一个独立的框架,整合最先进的假冒生成器和探测器,并使用各种标准来测量这些技术的性能。我们还对基准测试结果进行了详尽的分析,确定了在措施与对策之间永无止境的战争中的比较参考的方法的特征。
translated by 谷歌翻译
变形攻击是不断影响深度识别系统的众多威胁之一。它包括从不同个体中选择两张面,并将它们融合到包含两者的身份信息的最终图像中。在这项工作中,我们提出了一个新颖的正规化术语,该术语考虑了两者中存在的身份信息,并促进了两个正交潜在媒介的创建。我们在FRLL数据集中评估了我们提出的方法(Orthomad),并在五个不同的数据集中培训时评估了模型的性能。我们以小的RESNET-18为骨干,我们实现了大多数实验的最新结果,而竞争性则在其他实验中结果。本文的代码将公开可用。
translated by 谷歌翻译
自动面部识别是一个知名的研究领域。在该领域的最后三十年的深入研究中,已经提出了许多不同的面部识别算法。随着深度学习的普及及其解决各种不同问题的能力,面部识别研究人员集中精力在此范式下创建更好的模型。从2015年开始,最先进的面部识别就植根于深度学习模型。尽管有大规模和多样化的数据集可用于评估面部识别算法的性能,但许多现代数据集仅结合了影响面部识别的不同因素,例如面部姿势,遮挡,照明,面部表情和图像质量。当算法在这些数据集上产生错误时,尚不清楚哪些因素导致了此错误,因此,没有指导需要多个方向进行更多的研究。这项工作是我们以前在2014年开发的作品的后续作品,最终于2016年发表,显示了各种面部方面对面部识别算法的影响。通过将当前的最新技术与过去的最佳系统进行比较,我们证明了在强烈的遮挡下,某些类型的照明和强烈表达的面孔是深入学习算法所掌握的问题,而具有低分辨率图像的识别,极端的姿势变化和开放式识别仍然是一个开放的问题。为了证明这一点,我们使用六个不同的数据集和五种不同的面部识别算法以开源和可重现的方式运行一系列实验。我们提供了运行所有实验的源代码,这很容易扩展,因此在我们的评估中利用自己的深网只有几分钟的路程。
translated by 谷歌翻译
With the rapid development of deep generative models (such as Generative Adversarial Networks and Auto-encoders), AI-synthesized images of the human face are now of such high quality that humans can hardly distinguish them from pristine ones. Although existing detection methods have shown high performance in specific evaluation settings, e.g., on images from seen models or on images without real-world post-processings, they tend to suffer serious performance degradation in real-world scenarios where testing images can be generated by more powerful generation models or combined with various post-processing operations. To address this issue, we propose a Global and Local Feature Fusion (GLFF) to learn rich and discriminative representations by combining multi-scale global features from the whole image with refined local features from informative patches for face forgery detection. GLFF fuses information from two branches: the global branch to extract multi-scale semantic features and the local branch to select informative patches for detailed local artifacts extraction. Due to the lack of a face forgery dataset simulating real-world applications for evaluation, we further create a challenging face forgery dataset, named DeepFakeFaceForensics (DF^3), which contains 6 state-of-the-art generation models and a variety of post-processing techniques to approach the real-world scenarios. Experimental results demonstrate the superiority of our method to the state-of-the-art methods on the proposed DF^3 dataset and three other open-source datasets.
translated by 谷歌翻译
生成对抗网络(GAN)的快速进步为图像归因提出了新的挑战;检测图像是否是合成的,如果是的,则确定哪些GAN体系结构创建了它。独特的是,我们为该任务提供了一个解决方案,能够1)将图像与其语义内容匹配; 2)随着图像在线重新共享时,通常会遇到良性转换(质量,分辨率,形状等)的良好转化。为了使我们的研究形式化,收集了一个具有挑战性的基准归因88,以实现强大而实用的图像归因。然后,我们提出了基于表示混合和新颖损失的GAN指纹技术Repmix。我们验证了其追踪gan生成图像的出处的能力,不变到图像的语义内容以及对扰动的鲁棒性。我们表明,我们的方法从现有的GAN指纹识别方面有显着提高,既有语义泛化和稳健性。数据和代码可从https://github.com/tubui/image_attribution获得。
translated by 谷歌翻译
基于深卷积神经网络(CNN)的面部识别表现出归因于提取的高判别特征的卓越精度性能。然而,经常忽略了深度学习模型(深度特征)提取的功能的安全性和隐私。本文提出了从深度功能中重建面部图像,而无需访问CNN网络配置作为约束优化问题。这种优化可最大程度地减少从原始面部图像中提取的特征与重建的面部图像之间的距离。我们没有直接解决图像空间中的优化问题,而是通过寻找GAN发电机的潜在向量来重新重新制定问题,然后使用它来生成面部图像。 GAN发电机在这个新颖的框架中起着双重作用,即优化目标和面部发电机的面部分布约束。除了新颖的优化任务之外,我们还提出了一条攻击管道,以基于生成的面部图像模拟目标用户。我们的结果表明,生成的面部图像可以达到最先进的攻击率在LFW上的最先进的攻击率在I型攻击下为0.1 \%。我们的工作阐明了生物识别部署,以符合隐私和安全政策。
translated by 谷歌翻译
Online media data, in the forms of images and videos, are becoming mainstream communication channels. However, recent advances in deep learning, particularly deep generative models, open the doors for producing perceptually convincing images and videos at a low cost, which not only poses a serious threat to the trustworthiness of digital information but also has severe societal implications. This motivates a growing interest of research in media tampering detection, i.e., using deep learning techniques to examine whether media data have been maliciously manipulated. Depending on the content of the targeted images, media forgery could be divided into image tampering and Deepfake techniques. The former typically moves or erases the visual elements in ordinary images, while the latter manipulates the expressions and even the identity of human faces. Accordingly, the means of defense include image tampering detection and Deepfake detection, which share a wide variety of properties. In this paper, we provide a comprehensive review of the current media tampering detection approaches, and discuss the challenges and trends in this field for future research.
translated by 谷歌翻译
Our goal with this survey is to provide an overview of the state of the art deep learning technologies for face generation and editing. We will cover popular latest architectures and discuss key ideas that make them work, such as inversion, latent representation, loss functions, training procedures, editing methods, and cross domain style transfer. We particularly focus on GAN-based architectures that have culminated in the StyleGAN approaches, which allow generation of high-quality face images and offer rich interfaces for controllable semantics editing and preserving photo quality. We aim to provide an entry point into the field for readers that have basic knowledge about the field of deep learning and are looking for an accessible introduction and overview.
translated by 谷歌翻译
随着神经网络能够生成现实的人造图像,它们有可能改善电影,音乐,视频游戏并使互联网变得更具创造力和鼓舞人心的地方。然而,最新的技术有可能使新的数字方式撒谎。作为响应,出现了多种可靠的方法工具箱,以识别人造图像和其他内容。先前的工作主要依赖于像素空间CNN或傅立叶变换。据我们所知,到目前为止,基于多尺度小波表示的综合伪造图像分析和检测方法始于迄今为止在空间和频率中始终存在。小波转换在一定程度上可以保守空间信息,这使我们能够提出新的分析。比较真实图像和假图像的小波系数可以解释。确定了显着差异。此外,本文提议学习一个模型,以根据自然和gan生成图像的小波包装表示合成图像。正如我们在FFHQ,Celeba和LSUN源识别问题上所证明的那样,我们的轻巧法医分类器在相对较小的网络大小上表现出竞争性或改进的性能。此外,我们研究了二进制脸庞++假检测问题。
translated by 谷歌翻译
Identity authentication is the process of verifying one's identity. There are several identity authentication methods, among which biometric authentication is of utmost importance. Facial recognition is a sort of biometric authentication with various applications, such as unlocking mobile phones and accessing bank accounts. However, presentation attacks pose the greatest threat to facial recognition. A presentation attack is an attempt to present a non-live face, such as a photo, video, mask, and makeup, to the camera. Presentation attack detection is a countermeasure that attempts to identify between a genuine user and a presentation attack. Several industries, such as financial services, healthcare, and education, use biometric authentication services on various devices. This illustrates the significance of presentation attack detection as the verification step. In this paper, we study state-of-the-art to cover the challenges and solutions related to presentation attack detection in a single place. We identify and classify different presentation attack types and identify the state-of-the-art methods that could be used to detect each of them. We compare the state-of-the-art literature regarding attack types, evaluation metrics, accuracy, and datasets and discuss research and industry challenges of presentation attack detection. Most presentation attack detection approaches rely on extensive data training and quality, making them difficult to implement. We introduce an efficient active presentation attack detection approach that overcomes weaknesses in the existing literature. The proposed approach does not require training data, is CPU-light, can process low-quality images, has been tested with users of various ages and is shown to be user-friendly and highly robust to 2-dimensional presentation attacks.
translated by 谷歌翻译
Privacy of machine learning models is one of the remaining challenges that hinder the broad adoption of Artificial Intelligent (AI). This paper considers this problem in the context of image datasets containing faces. Anonymization of such datasets is becoming increasingly important due to their central role in the training of autonomous cars, for example, and the vast amount of data generated by surveillance systems. While most prior work de-identifies facial images by modifying identity features in pixel space, we instead project the image onto the latent space of a Generative Adversarial Network (GAN) model, find the features that provide the biggest identity disentanglement, and then manipulate these features in latent space, pixel space, or both. The main contribution of the paper is the design of a feature-preserving anonymization framework, StyleID, which protects the individuals' identity, while preserving as many characteristics of the original faces in the image dataset as possible. As part of the contribution, we present a novel disentanglement metric, three complementing disentanglement methods, and new insights into identity disentanglement. StyleID provides tunable privacy, has low computational complexity, and is shown to outperform current state-of-the-art solutions.
translated by 谷歌翻译
如果通过参考人类感知能力,他们的培训可以实现深度学习模型可以实现更大的概括吗?我们如何以实际的方式实现这一目标?本文提出了一种首次培训策略来传达大脑监督,以提高泛化(机器人)。这种新的训练方法将人类注释的显着性图纳入了一种机器人损失函数,指导了在求解给定视觉任务时从图像区域的学习特征的模型。类激活映射(CAM)机制用于探测模型在每个训练批处理中的电流显着性,与人为显着性,并惩罚模型以实现大差异。结果综合面检测任务表明,Cyborg损失导致看不见的样本的性能显着改善,这些样本由多种分类网络架构中的六个生成对抗网络(GANS)产生的面部图像组成。我们还表明,与标准损失的培训数据缩放到甚至七次甚至不能击败机器人损失的准确性。作为副作用,我们观察到,在合成面检测的任务方面增加了显式区域注释增加了人类分类性能。这项工作开启了关于如何将人类视力置于损失功能的新研究领域。本文提供了本工作中使用的所有数据,代码和预训练型号。
translated by 谷歌翻译