在本文中,我们提出了一种通过无序的固定长度位串来表示指纹图像的方法,该方法提供了改进的精度性能,更快的匹配时间和可压缩性。首先,我们设计了一个新的基于minutia的局部结构,该结构由像素空间中的2D椭圆高斯函数的混合建模。通过将局部结构与与其相关联的细节数进行归一化,将每个局部结构映射到欧几里德空间。这个简单但至关重要的关键点可以实现两个局部结构的快速相异性计算,其中欧氏距离无失真。还引入了基于细节的局部结构的基于纹理的互补局部结构,其中两者都可以通过主成分分析进行压缩并且在欧几里德空间中容易融合。然后通过K均值聚类算法将融合的局部结构转换为K位有序串。仅使用欧几里德距离的这种计算链对于快速和有区别的位串转换是至关重要的。通过手指特定的比特训练算法可以进一步提高准确度,其中利用两个标准来选择有用的比特位置以进行匹配。在指纹验证竞赛(FVC)数据库上进行实验,以与现有技术进行比较,以显示所提出的方法的优越性。
translated by 谷歌翻译
本研究提出了一种新的深度学习模型,称为IITNet,用于从原始单通道脑电图(EEG)中学习时间和时间间隔的时间背景,用于自动睡眠阶段评分。当睡眠专家识别出称为时代的30秒PSG数据的睡眠阶段时,他们会调查睡眠相关事件,例如睡眠轴,K-复合体和来自时代(子时期)的局部片段的频率成分,并考虑睡眠之间的关系连续时期的相关事件遵循过渡规则。受此启发,IITNet学习如何通过深度残留网络对子时代的代表性特征进行编码,然后通过BiLSTM捕获代表性特征序列中的上下文信息。因此,IITNetcan在子历元级别中提取特征并且不仅在时期之间而且在时期中考虑时间上下文。 IITNet是一种端到端架构,不需要任何预处理,手工制作的功能设计,平衡采样,预训练或微调。我们的模型在Sleep-EDF和MASS数据集中进行了训练和评估,并且在两个数据集上均优于其他最先进的结果,总体准确度(ACC)分别为84.0%和86.6%,宏观F1分数(MF1)为77.7和80.8,Cohen的kappa分别为0.78和0.80,分别为Sleep-EDF和MASS。
translated by 谷歌翻译
深度神经网络最近通过安装在道路段上的传感器获得的时间序列数据证明了交通预测能力。然而,捕获交通数据的时空特征通常需要大量的参数来训练,增加了计算负担。在这项工作中,我们证明嵌入道路网络的拓扑信息改善了学习交通特征的过程。我们使用具有递归神经网络(RNN)的车辆道路网络的agraph来推断相邻路段之间的相互作用以及时间动力学。道路网络的拓扑结构被转换为时空图形,以形成结构RNN(SRNN)。提出的方法是验证来自西班牙桑坦德市道路网的超速数据。实验表明,基于图形的方法优于基于时空图像的最先进的方法,需要更少的参数。
translated by 谷歌翻译
在图像质量增强处理中,预测人类感知处理图像是最重要的,因为人类观察者是图像的最终接收者。因此,基于人类对心理物理实验的视觉敏感性的客观图像质量评估(IQA)方法已经进行了广泛的研究。由于深度卷积神经网络(CNN)的强大功能,已经研究了许多基于CNN的IQA模型。然而,以前的基于CNN的IQA模型没有充分利用人类视觉系统(HVS)的特征来解决IQA问题,只需将所有内容委托给CNN,其中基于CNN的模型经常被训练为回归量,以预测从IQA数据集获得的主观质量评估的分数。 。在本文中,我们提出了一种新的HVS激发的深IQA网络,称为Deep HVS-IQANet,其中人类心理物理特征,如视觉显着性和显着差异(JND)被整合到DeepHVS-IQA网络的前端。据我们所知,我们的工作是第一个同时考虑HVS的视觉显着性和JND特性的HVS灵感可移动IQA网络。此外,我们提出了一个等级损失来有效地训练我们的DeepHVS-IQA网络,以便可以提取感知重要的特征用于图像质量预测。当其预测质量得分的顺序与基础事实得分的顺序不同时,等级损失可以惩罚DeepHVS-IQA网。我们在大型IQA数据集上评估提出的Deep HVS-IQA网络,其中它优于所有最新的IQA方法。
translated by 谷歌翻译
显着性图,分数函数相对于输入的梯度,是解释深度神经网络决策的最基本技术。然而,显着性图通常在视觉上有噪声。虽然提出了几种假设来解释这种现象,但很少有工作可以对噪声显着性图进行提供性分析。在本文中,我们确定当不相关的特征通过ReLU激活函数时,在显着图中会出现噪声。然后我们提出Rectified Gradient,一种在反向传播过程中通过分层阈值处理来解决这个问题的方法。在CIFAR-10和ImageNet上训练的神经网络实验表明了我们的方法的有效性及其对其他归因方法的优越性。
translated by 谷歌翻译
典型的人重新识别框架在通常在不同条件下收集的图像的库中搜索k个最佳匹配。当在视频上重新识别时,图库可以包含图像序列。然而,这样的过程是耗时的,因为重新识别必须进行多次。在本文中,我们提取移动人员的帧的时空序列(称为管),并应用多阶段处理来匹配给定的查询管,其中存储管通过其他相机记录。最初,我们应用二进制分类器从输入查询管中删除噪声图像。在下一步中,我们使用基于键姿势检测的queryminimization。这通过删除冗余帧来减少查询管的长度。最后,根据匹配分数,使用3阶段分层重新识别框架来输出输出管。公开可用的视频重新识别数据集的实验表明,我们的框架比最先进的方法更好。它在多个数据集中对管的排名提高了6-8%的CMC准确度。此外,我们的方法显着减少了误报的数量。新的视频重新识别数据集,名为基于管的重新识别视频数据集(TRiViD),已经准备好,旨在帮助重新识别研究社区
translated by 谷歌翻译
视网膜眼底图像上的视杯和盘的自动分割对于青光眼的自动检测/分析是基础。传统分割方法在很大程度上取决于手工制作的功能和用户的先验知识。因此,这些方法难以适应临床环境。最近,基于完全卷积网络(FCN)的深度学习方法已经成功地解决了分割问题。然而,在处理医学图像时,依赖于大注释的训练数据是有问题的。如果没有足够数量的带注释的训练数据来涵盖所有可能的变化,则FCN不提供准确的分割。此外,FCN在卷积层中具有大的感受场,因此产生粗略的边界输出。因此,我们提出了一种新的全自动方法,我们将其称为双级完全卷积网络(DSFCN)。我们的方法利用深度剩余架构和FCN,并以逐步的方式学习和推断光学杯和磁盘的位置,并具有细粒度的细节。在训练期间,ourapproach从训练数据和从前一次迭代得到的估计结果中学习。从前一次迭代中学习的能力可以优化光学杯和磁盘边界的学习。在测试(预测)期间,DSFCN使用测试(输入)图像和从先前迭代得到的估计概率图来逐渐改善分段准确性。我们的方法实现了视杯和磁盘分割的平均Dice系数为0.8488和0.9441,并且曲线下面积(AUC)为0.9513,用于青光眼检测。
translated by 谷歌翻译
现有的高性能深度学习模型需要非常密集的计算。因此,很难将深度学习模型嵌入到资源有限的系统中。在本文中,我们提出了网络压缩的新思想作为解决这一局限的方法。这个想法的原则是通过模拟简化的网络使迭代修剪更有效和复杂。进行了一个简单的实验来评估该方法;结果表明,该方法在相同的修剪水平下比现有方法具有更高的性能。
translated by 谷歌翻译
我们研究了基于扰动的算法在随机和对抗多臂强盗问题中的最优性。对于随机情况,我们为所有子威布尔扰动提供统一分析。 Thesub-Weibull族包括亚高斯和次指数分布。对于一系列子Weibull参数,Ourbounds是最优的实例。对于对抗性设置,我们使用离散选择理论和极值理论的工具证明了对两种自然解决方案的严格障碍。我们的结果表明,如果存在的话,最优扰动将是精确的扰动。
translated by 谷歌翻译
哲学家和心理学家几个月来一直在争论美的概念,但大多数定义是主观的和形而上的,缺点是不准确,普遍性和可扩展性。在本文中,我们提出了一种基于大数据的面部属性挖掘美学语义的新颖研究,并试图以量化的方式客观地构建美的描述。我们首先部署深度卷积神经网络(CNN)来提取面部属性,然后研究这两个特征之间的相关性和两个标有美容分数的大型数据集的吸引力。我们不仅发现了通过统计显着性验证验证的美的秘密,我们的研究结果也完全符合现有的心理学研究,例如小鼻子,高颧骨和女性气质有助于吸引人。我们通过生成对抗网络(GAN)进一步利用这些高级表示来形成原始图像。合成后的美容增强在视觉上引人注目,并且通过用户对10,000个数据点的调查进行统计学上的证实。
translated by 谷歌翻译