在新兴的纳米物联网(IoNT)中,信息将通过复杂和扩散的媒体以分子的形式嵌入和传播。一个主要的挑战在于信道响应的长尾性质导致符号间干扰(ISI),这会降低检测性能。如果信道未知,我们不能轻易实现传统的相干信道估计和消除,并且ISI的影响将是在本文中,我们开发了一种用于分子信号盲检测的新型高维非相干方案。我们通过组合利用信号的瞬态特征的不同非相干度量,在更高维度的空间中实现这一点。通过推导任何构造的高维非相干度量的理论误码率(BER),我们证明了更高的维数总是在相同的样本空间中实现更低的BER。然后,我们设计了一个利用了Thearzen的广义盲检测算法。近似及其概率神经网络(Parzen-PNN)检测信息比特。利用其快速收敛和并行实现的优点,我们提出的方案可以满足检测精度和实时计算的需要。数值模拟表明,与其他最先进的方法相比,我们提出的方案可以获得10dB的BER。
translated by 谷歌翻译
Extreme多标签分类(XML)是一项重要且具有挑战性的机器学习任务,它为每个实例分配一个极其庞大的标签集合中最相关的候选标签,其中标签,功能和实例的数量可能是数千或数百万。随着业务规模/范围和数据积累的增加,XML在互联网行业越来越受欢迎。极大的标签收集产生诸如计算复杂性,标签间依赖性和噪声标记之类的挑战。基于不同的数学公式,已经提出了许多方法来解决这些挑战。在本文中,我们提出了一种深度学习XML方法,其中包含基于字向量的自我关注,然后是基于排名的AutoEncoder架构。所提出的方法具有以下主要优点:1)自动编码器通过将标签和特征投影到公共嵌入空间上,同时考虑标签间依赖性和特征标签依赖性; 2)排名损失不仅可以提高训练效率和准确性,还可以扩展到处理噪声标记数据; 3)有效的注意机制通过突出特征重要性来改进特征表示。基准数据集的实验结果表明,所提出的方法是具有竞争力的先进方法。
translated by 谷歌翻译
最近,3D面部重建和面部对齐任务逐渐组合成一个任务:3D密集面部对齐。其目标是利用姿势信息重建人脸三维几何结构。在本文中,我们提出了一个图形卷积网络来回归3D面部坐标。我们的方法直接在三维人脸网格上进行特征学习,几何结构和细节得到很好的保留。大量实验表明,我们的方法在几个具有挑战性的数据集上比最先进的方法具有更好的性能。
translated by 谷歌翻译
我们提出了Hand-CNN,一种新颖的卷积网络架构,用于检测手工掩模和预测无约束图像中的手部方向。 Hand-CNN使用新颖的注意机制扩展MaskRCNN,以在检测过程中结合上下文。该注意机制可以实现为有效的网络模块,其捕获特征之间的非本地依赖性。该网络模块可以插入物体检测网络的不同阶段,并且可以端到端地训练整个检测器。我们还引入了一个大型带注释的手部数据集,其中包含用于训练和评估的无约束图像。我们展示了Hand-CNNout在几个数据集上执行现有方法,包括我们的手检测基准和公众可用的PASCAL VOC人体布局挑战。我们还进行了手部检测的消融研究,以显示所提出的情境关注模块的有效性。
translated by 谷歌翻译
由于深度卷积神经网络(CNN)的巨大改进,近年来人脸识别取得了显着进展。然而,deepCNN很容易受到对抗性的例子的影响,这些例子可能会在具有安全敏感性目的的真实世界人脸识别应用程序中造成致命的后果。对抗性攻击被广泛研究,因为它们可以在部署之前识别模型的脆弱性。在本文中,我们评估了基于决策的黑盒攻击设置中最先进的人脸识别模型的稳健性,其中攻击者无法访问模型参数和梯度,但只能通过发送查询来获取硬标签预测到目标模型。这种攻击设置在现实世界的人脸识别系统中更为实用。为了提高上述方法的效率,我们提出了一种进化攻击算法,该算法可以对搜索方向的局部几何进行建模,并减小这些空间的维数。大量实验证明了所提出的方法的有效性,该方法通过较少的查询引起对输入面部图像的最小扰动。我们还应用所提出的方法成功地攻击真实世界的人脸识别系统。
translated by 谷歌翻译
基于机器学习的数据驱动应用已经变得无处不在,例如,医疗保健分析和数据库系统优化。大型培训数据和大型(深层)模型对于良好的性能至关重要。 Dropout已被广泛用作有效的正则化技术,以防止大型模型过度拟合。然而,许多最近的研究表明,对于数据驱动的应用程序,深度卷积神经网络(CNN),人口深度学习模型,辍学并没有带来太多的性能提升。在本文中,我们在相同的分析框架下制定CNN的现有辍学方法来调查失败。我们将失败归因于辍学与其后的批量归一化操作之间的冲突。因此,我们建议改变操作的顺序,这导致CNN的新构建块。已经对基准数据集CIFAR,SVHN和ImageNet进行了大量实验,以比较现有的构建块和我们的新构建块与不同的丢失方法。结果证实了由于辍学的正则化和隐式模型集合效应,我们提出的构件的优越性。特别值得一提的是,我们改进了现有的CNN,并且CIFAR-10,CIFAR-100,SVHN和ImageNet的错误率分别为3.17%,16.15%,1.44%,21.46%。
translated by 谷歌翻译
本文介绍了一种新收集的新型数据集(StereoMSI)基于实例的单色和彩色引导光谱图像超分辨率。 Thedataset在PIRM2018光谱图像超分辨率挑战期间首次发布和推广。据我们所知,数据集是同类中的第一个,包括350个注册的色谱图像对。 Thedataset已被用于挑战的两个轨道,对于每一个,我们提供了分为培训,验证和测试。这种安排是挑战结构和阶段的结果,第一轨道专注于基于实例的光谱图像超分辨率,第二轨道旨在利用注册的立体彩色图像来改善光谱图像的分辨率。已经选择每个轨道和分裂在多个图像质量度量上保持一致。该数据集本质上是非常通用的,除了开发光谱图像超分辨率方法之外,还可以用于各种各样的应用。
translated by 谷歌翻译
Benefit from large-scale training datasets, deep Con-volutional Neural Networks(CNNs) have achieved impressive results in face recognition(FR). However, tremendous scale of datasets inevitably lead to noisy data, which obviously reduce the performance of the trained CNN models. Kicking out wrong labels from large-scale FR datasets is still very expensive, although some cleaning approaches are proposed. According to the analysis of the whole process of training CNN models supervised by angular margin based loss(AM-Loss) functions, we find that the θ distribution of training samples implicitly reflects their probability of being clean. Thus, we propose a novel training paradigm that employs the idea of weighting samples based on the above probability. Without any prior knowledge of noise, we can train high performance CNN models with large-scale FR datasets. Experiments demonstrate the effectiveness of our training paradigm. The codes are available at https://github.com/huangyangyu/NoiseFace.
translated by 谷歌翻译
最近的许多镜头学习方法都集中在设计新型模式架构上。在本文中,我们反而表明,通过简单的骨干卷积网络,我们甚至可以超越最先进的分类准确度。有助于实现这种卓越性能的关键部分是对抗性特征学习策略,它可以改善我们模型的泛化能力。在这项工作中,对抗性特征是那些可能导致分类器对其预测不确定的特征。为了生成对抗特征,我们首先基于熵的导数相对于平均掩模来定位对抗区域。然后我们使用对抗区域注意聚合特征图来获得对抗特征。通过这种方式,我们可以探索和利用特征图的空间区域来挖掘更多不同的判别知识。我们对miniImageNet和TieredImageNet数据集进行了大量的模型评估和分析,证明了该方法的有效性。
translated by 谷歌翻译
提出SpeakerBeam-FE(SBF)方法用于扬声器提取。它试图在源分离期间的听力记录中克服未知数量的扬声器的问题。 SBF的掩模近似损耗是最优的,不计算直接信号重构误差并考虑语音上下文。为了解决这些问题,本文提出了宏观和时间频谱近似损耗来估计具有说话人特征的目标说话人的相敏感掩模。此外,本文探讨了一种串联框架,而不是SBF方法中的上下文自适应深度神经网络来编码扬声器嵌入掩模估计网络。开放评估条件下的实验结果表明,该方法在SBF基线上的信噪比(SDR)和语音质量感知评估(PESQ)分别达到70.4%和17.7%的相对改善。进一步分析表明,对于不同和相同性别的混合物,通过所提出的方法获得了69.1%和72.3%的相对SDR改善。
translated by 谷歌翻译