在面部识别中使用的本地描述符是稳健的,因为这些描述符在不同的姿势,照明和照明条件下表现良好。这些描述符的准确性取决于将面部图像的本地邻域中存在的关系映射到微结构中的关系。在本文中,提出了一种局部梯度六到模式(LGHP),其识别在不同衍生方向上的不同距离处的参考像素和其相邻像素之间的关系。歧视信息存在于局部邻域以及不同的衍生方向上。所提出的描述符有效地将这些关系改变为判别具有最佳精度的二元微型图像。所提出的描述符的识别和检索性能已经与最先进的描述符相比,即最具挑战性和基准面部图像数据库的LDP和LVP,即裁剪延伸的Yale-B,CMU-Pie,Color-Feret和LFW。与最先进的描述符相比,所提出的描述符具有更好的识别以及检索速率。
translated by 谷歌翻译
在本文中,提出了一种在高阶导数空间中的本地图案描述符用于面部识别。所提出的局部定向梯度模式(LDGP)是通过在四个不同的方向上编码参考像素的高阶导数之间的关系来计算的1D局部微图案。所提出的描述符识别来自四个不同方向的引用像素的高阶导数之间的关系,以计算对应于本地特征的微图案。所提出的描述符显着降低了微图案的长度,从而降低了提取时间和匹配时间,同时保持识别率。在基准数据库中进行的广泛实验的结果,延伸耶鲁B和CMU-PIE的基准数据库,表明所提出的描述符显着降低了提取以及匹配时间,同时识别率几乎类似于现有技术的现有技术。
translated by 谷歌翻译
特征描述是专家系统和机器学习中最常见的区域之一。有效编码图像是准确匹配的必要要求。这些编码方案在识别和检索系统中发挥着重要作用。面部识别系统应该有效地在系统内在和外在变化下准确地识别个体。这些系统中使用的模板或描述符编码图像的本地附近的像素的空间关系。使用这些手工制作描述符编码的功能应该是稳健的抵抗诸如;照明,背景,姿势和表达。在本文中,提出了一种新型手工制作的级联非对称局部图案(CALP),用于检索和识别面部图像。所提出的描述符在水平和垂直方向上唯一地对相邻像素之间的关系进行唯一编码关系。所提出的编码方案具有最佳特征长度,并且在面部图像中的环境和生理变化下的准确性显着提高。艺术手工制作描述符的状态即;将LBP,LDGP,CSLBP,SLBP和CSLTP与最具挑战性数据集上的所提出的描述符进行比较。 Caltech-Face,LFW和Casia-Face-V5。结果分析表明,在表情,背景,姿势和照明的不受控制的变化下,所提出的描述符优于现有技术。
translated by 谷歌翻译
本文提出了一种新颖的手工制作的本地四重模式(LQPAT),用于面部图像识别和检索。大多数现有的手工制作描述符在本地邻域中仅编码有限数量的像素。在不受约束的环境下,这些描述符的性能往往会急剧降级。增加本地邻居的主要问题是,它还增加了描述符的特征长度。所提出的描述符尝试通过定义具有最佳特征长度的有效编码结构来克服这些问题。所提出的描述符在二次空间中的邻居中的关系编码。从本地关系计算两个微图案以形成描述符。所提出的描述符的检索和识别精度已经与替补标记数据库上的艺术手工制作描述符的状态进行了比较; Caltech-Face,LFW,Color-Feret和Casia-Face-V5。结果分析表明,所提出的描述符在姿势,照明,背景和表达式的不受控制的变化下执行良好。
translated by 谷歌翻译
面部特征被定义为面部图像的像素中存在的局部关系。手工制作的描述符确定内核定义的本地邻域中的像素的关系。内核是一种二维矩阵,它在面部图像上移动。内核捕获的具有有限数量的像素的独特信息实现了在受约束环境下拍摄的面部图像上的令人满意的识别和检索精度(光,姿势,表达式和背景的受控变化)。为了在不受约束的环境下实现类似的准确性,必须增加本地社区,以便编码更多像素。增加本地邻域也增加了描述符的特征长度。在本文中,我们提出了一种手工制作的描述符,即中心对称四重奏模式(CSQP),其在结构上对称,并在四重空间中对面部不对称进行编码。所提出的描述符有效地编码具有最佳二进制位数的较大邻域。已经示出了使用平均熵,计算与所提出的描述符编码的特征图像,CSQP与艺术描述符的状态相比捕获更有意义的信息。将所提出的描述符的检索和识别精度与在台式标记数据库上的艺术手工描述符(CSLBP,CSLTP,LDP,LBP,SLBP和LDGP)的状态进行了比较; LFW,Color-Feret和Casia-Face-V5。结果分析表明,所提出的描述符在受控和姿势,照明,背景和表达中的不受控制的变化下执行良好。
translated by 谷歌翻译
在本文中,提出了R-Theta本地邻域模式(RTLNP),用于面部图像检索。 RTLNP以不同的角度和径向宽度在参考像素的本地附近的像素中利用关系。所提出的编码方案将本地邻域分成相等角度宽度的扇区。这些扇区再次分为两个径向宽度的子区。这些两个子区的平均灰度值被编码以生成微图案。已经评估了所提出的描述符的性能,并将结果与​​艺术描述符的状态进行比较。 LBP,LTP,CSLBP,CSLTP,Sobel-LBP,LTCOP,LMEP,LDP,LTRP,MBLBP,Brint和SLBP。最具挑战性的面部受限制和无约束数据库,即; AT&T,Caria-Face-V5裁剪,LFW和彩色机构已被用于显示所提出的描述符的效率。建议的描述符也在近红外(NIR)面部数据库上进行测试; Casia Nir-Vis 2.0和Polyu-Nirfd探讨了它对NIR面部图像的潜力。与现有技术描述符相比,RTLNP的更好检索率显示了描述符的有效性
translated by 谷歌翻译
大多数手指静脉特征提取算法由于其质地表示能力而达到满意的性能,尽管同时忽略了手指组织形成的强度分布,以及在某些情况下,将其加工为背景噪声。在本文中,我们利用这种噪音作为一种新型软生物识别性状,以实现更好的手指静脉识别性能。首先,提出了对手指静脉成像原理的详细分析和图像的特性,以表明由背景中的手指组织形成的强度分布可以作为柔软的生物分析来识别。然后,提出了两个指静脉背景层提取算法和三个软生物识别性提取算法,用于强度分布特征提取。最后,提出了一种混合匹配策略来解决初级和软生物识别性质之间的尺寸差异在得分水平上。三个开放式数据库的一系列严格对比实验表明,我们所提出的方法是手指静脉识别的可行和有效。
translated by 谷歌翻译
Periocular recognition has gained attention recently due to demands of increased robustness of face or iris in less controlled scenarios. We present a new system for eye detection based on complex symmetry filters, which has the advantage of not needing training. Also, separability of the filters allows faster detection via one-dimensional convolutions. This system is used as input to a periocular algorithm based on retinotopic sampling grids and Gabor spectrum decomposition. The evaluation framework is composed of six databases acquired both with near-infrared and visible sensors. The experimental setup is complemented with four iris matchers, used for fusion experiments. The eye detection system presented shows very high accuracy with near-infrared data, and a reasonable good accuracy with one visible database. Regarding the periocular system, it exhibits great robustness to small errors in locating the eye centre, as well as to scale changes of the input image. The density of the sampling grid can also be reduced without sacrificing accuracy. Lastly, despite the poorer performance of the iris matchers with visible data, fusion with the periocular system can provide an improvement of more than 20%. The six databases used have been manually annotated, with the annotation made publicly available.
translated by 谷歌翻译
In this paper, we present a novel scale-and rotation-invariant interest point detector and descriptor, coined SURF (Speeded Up Robust Features). It approximates or even outperforms previously proposed schemes with respect to repeatability, distinctiveness, and robustness, yet can be computed and compared much faster.This is achieved by relying on integral images for image convolutions; by building on the strengths of the leading existing detectors and descriptors (in casu, using a Hessian matrix-based measure for the detector, and a distribution-based descriptor); and by simplifying these methods to the essential. This leads to a combination of novel detection, description, and matching steps. The paper presents experimental results on a standard evaluation set, as well as on imagery obtained in the context of a real-life object recognition application. Both show SURF's strong performance.
translated by 谷歌翻译
兴趣点检测是计算机视觉和图像处理中最根本,最关键的问题之一。在本文中,我们对图像特征信息(IFI)提取技术进行了全面综述,以进行利益点检测。为了系统地介绍现有的兴趣点检测方法如何从输入图像中提取IFI,我们提出了IFI提取技术的分类学检测。根据该分类法,我们讨论了不同类型的IFI提取技术以进行兴趣点检测。此外,我们确定了与现有的IFI提取技术有关的主要未解决的问题,以及以前尚未讨论过的任何兴趣点检测方法。提供了现有的流行数据集和评估标准,并评估和讨论了18种最先进方法的性能。此外,还详细阐述了有关IFI提取技术的未来研究方向。
translated by 谷歌翻译
面部特征跟踪是成像跳芭式(BCG)的关键组成部分,其中需要精确定量面部关键点的位移,以获得良好的心率估计。皮肤特征跟踪能够在帕金森病中基于视频的电机降解量化。传统的计算机视觉算法包括刻度不变特征变换(SIFT),加速强大的功能(冲浪)和LUCAS-KANADE方法(LK)。这些长期代表了最先进的效率和准确性,但是当存在常见的变形时,如图所示,如图所示,如此。在过去的五年中,深度卷积神经网络对大多数计算机视觉任务的传统方法表现优于传统的传统方法。我们提出了一种用于特征跟踪的管道,其应用卷积堆积的AutoEncoder,以将图像中最相似的裁剪标识到包含感兴趣的特征的参考裁剪。 AutoEncoder学会将图像作物代表到特定于对象类别的深度特征编码。我们在面部图像上培训AutoEncoder,并验证其在手动标记的脸部和手视频中通常验证其跟踪皮肤功能的能力。独特的皮肤特征(痣)的跟踪误差是如此之小,因为我们不能排除他们基于$ \ chi ^ 2 $ -test的手动标签。对于0.6-4.2像素的平均误差,我们的方法在所有情况下都表现出了其他方法。更重要的是,我们的方法是唯一一个不分歧的方法。我们得出的结论是,我们的方法为特征跟踪,特征匹配和图像配准比传统算法创建更好的特征描述符。
translated by 谷歌翻译
空间临时局部二进制模式(STLBP)已广泛用于动态纹理识别。 STLBP经常遇到高维问题,因为其维度呈指数增加,因此STLBP只能利用小邻居。为了解决这个问题,我们提出了一种使用PDV散列和多尺度卷本地二进制模式(PHD-MVLBP)的动态纹理识别方法。它首先使用散列函数来将像素差向量(PDV)映射到二进制向量的哈希函数,然后使用导出的二进制向量来形成字典,并使用派生词典对它们进行编码。以这种方式,PDV被映射到字典大小的特征向量,而不是非常高维的LBP直方图。这样的编码方案可以有效地将视频中的视频中的判别信息提取。在两个广泛使用的动态纹理数据集,Dyntex ++和UCLA上的实验结果表明了所提出的方法的优势性能,通过最先进的方法。
translated by 谷歌翻译
近年来,由于其对科学和社会的重要性,人们的重新识别(RE-ID)一直受到越来越多的关注。机器学习,尤其是深度学习(DL)已成为主要的重新ID工具,该工具使研究能够在基准数据集上实现前所未有的精度水平。但是,DL模型的概括性不佳存在已知的问题。也就是说,经过训练以实现一个数据集的模型在另一个数据集上的表现不佳,并且需要重新训练。为了解决这个问题,我们提出了一个没有可训练参数的模型,该模型显示出高概括的巨大潜力。它将完全分析的特征提取和相似性排名方案与用于获得初始子区域分类的基于DL的人解析相结合。我们表明,这种组合在很大程度上消除了现有分析方法的缺点。我们使用可解释的颜色和纹理功能,这些功能具有与之相关的人类可读性相似性度量。为了验证提出的方法,我们在Market1501和CuHK03数据集上进行实验,以达到与DL模型相当的竞争排名1精度。最重要的是,我们证明我们的方法将应用于转移学习任务时,将达到63.9%和93.5%的跨域准确性。它明显高于先前报道的30-50%传输精度。我们讨论添加新功能以进一步改善模型的潜在方法。我们还展示了可解释的功能的优势,用于构建口头描述中的人类生成的查询,以进行无查询图像进行搜索。
translated by 谷歌翻译
In modern face recognition, the conventional pipeline consists of four stages: detect ⇒ align ⇒ represent ⇒ classify. We revisit both the alignment step and the representation step by employing explicit 3D face modeling in order to apply a piecewise affine transformation, and derive a face representation from a nine-layer deep neural network. This deep network involves more than 120 million parameters using several locally connected layers without weight sharing, rather than the standard convolutional layers. Thus we trained it on the largest facial dataset to-date, an identity labeled dataset of four million facial images belonging to more than 4,000 identities. The learned representations coupling the accurate model-based alignment with the large facial database generalize remarkably well to faces in unconstrained environments, even with a simple classifier. Our method reaches an accuracy of 97.35% on the Labeled Faces in the Wild (LFW) dataset, reducing the error of the current state of the art by more than 27%, closely approaching human-level performance.
translated by 谷歌翻译
可见光面图像匹配是跨模型识别的具有挑战性的变化。挑战在于,可见和热模式之间的较大的模态间隙和低相关性。现有方法采用图像预处理,特征提取或常见的子空间投影,它们本身是独立的问题。在本文中,我们提出了一种用于交叉模态面部识别的端到端框架。该算法的旨在从未处理的面部图像学习身份鉴别特征,并识别跨模态图像对。提出了一种新颖的单元级丢失,用于在丢弃模态信息时保留身份信息。另外,提出用于将图像对分类能力集成到网络中的跨模判位块。所提出的网络可用于提取无关的矢量表示或测试图像的匹配对分类。我们对五个独立数据库的跨型号人脸识别实验表明,该方法实现了对现有最先进的方法的显着改善。
translated by 谷歌翻译
We study the question of feature sets for robust visual object recognition, adopting linear SVM based human detection as a test case. After reviewing existing edge and gradient based descriptors, we show experimentally that grids of Histograms of Oriented Gradient (HOG) descriptors significantly outperform existing feature sets for human detection. We study the influence of each stage of the computation on performance, concluding that fine-scale gradients, fine orientation binning, relatively coarse spatial binning, and high-quality local contrast normalization in overlapping descriptor blocks are all important for good results. The new approach gives near-perfect separation on the original MIT pedestrian database, so we introduce a more challenging dataset containing over 1800 annotated human images with a large range of pose variations and backgrounds.
translated by 谷歌翻译
生物识别技术,尤其是人脸识别,已成为全球身份管理系统的重要组成部分。在Biometrics的部署中,必须安全地存储生物信息,以保护用户的隐私是必要的。在此上下文中,生物识别密码系统旨在满足生物识别信息保护的关键要求,从而实现隐私保留存储和生物识别数据的比较。该工作调查了通过深卷积神经网络提取的面部特征向量的改进的模糊Vault方案的应用。为此,引入了一个特征转换方法,将固定长度的实值深度特征向量映射到整数值的功能集。作为所述特征变换的一部分,进行了对不同特征量化和二碳技术的详细分析。在关键绑定处,获得的特征集被锁定在可解释的改进的模糊拱顶中。对于关键检索,研究了不同多项式重建技术的效率。所提出的特征转换方法和模板保护方案是生物识别特性的不可知。在实验中,构造了基于可解释的改进的深面模糊Vault基础模板保护方案,采用用培训的最先进的深卷积神经网络提取的特征,该特征在接受附加角度损失(arcFace)。为了最佳配置,在Furet和FRGCV2面部数据库的跨数据库实验中实现了0.01%的假匹配速率低于1%以下的假非匹配率。平均而言,获得高达约28位的安全级别。这项工作提出了一个有效的面基模糊Vault方案,提供了面部参考数据的隐私保护以及从脸部的数字键推导。
translated by 谷歌翻译
在过去的几十年中,已经进行了许多尝试来解决从其相应的低分辨率(LR)对应物中恢复高分辨率(HR)面部形象的问题,这是通常被称为幻觉的任务。尽管通过位置补丁和基于深度学习的方法实现了令人印象深刻的性能,但大多数技术仍然无法恢复面孔的特定特定功能。前一组算法通常在存在更高水平的降解存在下产生模糊和过天气输出,而后者产生的面部有时绝不使得输入图像中的个体类似于个体。在本文中,将引入一种新的面部超分辨率方法,其中幻觉面被迫位于可用训练面跨越的子空间中。因此,与大多数现有面的幻觉技术相比,由于这种面部子空间之前,重建是为了回收特定人的面部特征,而不是仅仅增加图像定量分数。此外,通过最近的3D面部重建领域的进步启发,还呈现了一种有效的3D字典对齐方案,通过该方案,该算法能够处理在不受控制的条件下拍摄的低分辨率面。在几个众所周知的面部数据集上进行的广泛实验中,所提出的算法通过生成详细和接近地面真理结果来显示出色的性能,这在定量和定性评估中通过显着的边距来实现了最先进的面部幻觉算法。
translated by 谷歌翻译
循环闭合检测是在复杂环境中长期机器人导航的关键技术。在本文中,我们提出了一个全局描述符,称为正态分布描述符(NDD),用于3D点云循环闭合检测。描述符编码点云的概率密度分数和熵作为描述符。我们还提出了快速旋转对准过程,并将相关系数用作描述符之间的相似性。实验结果表明,我们的方法在准确性和效率上都优于最新点云描述符。源代码可用,可以集成到现有的LIDAR射测和映射(壤土)系统中。
translated by 谷歌翻译
尽管提取了通过手工制作和基于学习的描述符实现的本地特征的进步,但它们仍然受到不符合非刚性转换的不变性的限制。在本文中,我们提出了一种计算来自静止图像的特征的新方法,该特征对于非刚性变形稳健,以避免匹配可变形表面和物体的问题。我们的变形感知当地描述符,命名优惠,利用极性采样和空间变压器翘曲,以提供旋转,尺度和图像变形的不变性。我们通过将等距非刚性变形应用于模拟环境中的对象作为指导来提供高度辨别的本地特征来培训模型架构端到端。该实验表明,我们的方法优于静止图像中的实际和现实合成可变形对象的不同数据集中的最先进的手工制作,基于学习的图像和RGB-D描述符。描述符的源代码和培训模型在https://www.verlab.dcc.ufmg.br/descriptors/neUrips2021上公开可用。
translated by 谷歌翻译