We aim at constructing a high performance model for defect detection that detects unknown anomalous patterns of an image without anomalous data. To this end, we propose a two-stage framework for building anomaly detectors using normal training data only. We first learn self-supervised deep representations and then build a generative one-class classifier on learned representations. We learn representations by classifying normal data from the CutPaste, a simple data augmentation strategy that cuts an image patch and pastes at a random location of a large image. Our empirical study on MVTec anomaly detection dataset demonstrates the proposed algorithm is general to be able to detect various types of real-world defects. We bring the improvement upon previous arts by 3.1 AUCs when learning representations from scratch. By transfer learning on pretrained representations on ImageNet, we achieve a new state-of-theart 96.6 AUC. Lastly, we extend the framework to learn and extract representations from patches to allow localizing defective areas without annotations during training.
translated by 谷歌翻译
无监督异常检测的本质是学习正常样品的紧凑分布并将异常值视为测试异常。同时,现实世界中的异常通常在高分辨率图像中尤其是工业应用中微妙而细粒度。为此,我们为无监督的异常检测和定位提出了一个新的框架。我们的方法旨在通过粗到1的比对过程从正常图像中学习致密和紧凑的分布。粗对齐阶段标准化了对象在图像和特征级别中的像素位置。然后,细胞对齐阶段密集地最大程度地提高了批处理中所有相应位置之间特征的相似性。为了仅使用正常图像来促进学习,我们提出了一个新的借口任务,称为“对齐阶段”,称为非对抗性学习。非对比度学习提取鲁棒和区分正常图像表示,而无需对异常样本进行假设,因此它使我们的模型能够推广到各种异常场景。对MVTEC AD和Bentech AD的两个典型工业数据集进行了广泛的实验表明,我们的框架有效地检测各种现实世界缺陷,并在工业无监督的异常检测中实现了新的最新技术。
translated by 谷歌翻译
我们介绍了一个简单而直观的自我实施任务,自然合成异常(NSA),用于训练仅使用正常培训数据的端到端模型,以实现异常检测和定位。NSA将Poisson图像编辑整合到来自单独图像的各种尺寸的无缝混合缩放贴片。这会产生广泛的合成异常,与以前的自我监督异常检测的数据 - 启发策略相比,它们更像自然的子图像不规则。我们使用天然和医学图像评估提出的方法。我们对MVTEC AD数据集进行的实验表明,经过训练的用于本地NSA异常的模型可以很好地概括地检测现实世界中的先验未知类型的制造缺陷。我们的方法实现了97.2的总检测AUROC,优于所有以前的方法,这些方法在不使用其他数据集的情况下学习。可在https://github.com/hmsch/natural-synthetic-anomalies上获得代码。
translated by 谷歌翻译
本文认为很少发生异常检测(FSAD),这是一种实用但研究不足的异常检测设置(AD),在训练中,每个类别仅提供有限数量的正常图像。到目前为止,现有的FSAD研究遵循用于标准AD的单层学习范式,并且尚未探索类别间的共同点。受到人类如何检测异常的启发,即将所讨论的图像与正常图像进行比较,我们在这里利用注册,这是一个固有跨越类别(​​作为代理任务)固有概括的图像对齐任务,以训练类别不稳定的异常异常检测模型。在测试过程中,通过比较测试图像的注册特征及其相应支持(正常)图像来识别异常。据我们所知,这是训练单个可推广模型的第一种FSAD方法,不需要对新类别进行重新训练或参数调整。实验结果表明,在MVTEC和MPDD基准上,所提出的方法在AUC中优于最先进的FSAD方法。
translated by 谷歌翻译
自我监督学习(SSL)已成为一种有希望的替代方法,可以为现实世界任务创建监督信号,从而避免了仔细的标签成本。 SSL对于无监督的问题(例如异常检测(AD))特别有吸引力,在该问题中,标记的异常为确保,难以模拟甚至不存在的异常。基于SSL的AD(SSAD)已使用了大量的增强功能目录,并且最近的工作观察到,增强类型对性能有重大影响。这项工作是由这些工作的动机,将SSAD置于更大的镜头下,并通过对许多测试台进行广泛的实验仔细研究了数据增强在AD中的作用。我们的主要发现是,自我统治是另一个迄今为止的模型超参数,应仔细选择数据中真实异常的本质。也就是说,增强和基础异常机制之间的一致性是SSAD成功的关键,并且在缺乏SSL的情况下,SSL甚至会损害(!)检测性能。除了提出另一种SSAD方法外,我们的研究为对该成长中的地区提供了更好的了解,并为未来的研究提供了新的方向。
translated by 谷歌翻译
我们介绍了异常聚类,其目标是将数据分组为语义相干的异常类型簇。这与异常检测不同,其目标是将异常从正常数据分开。与目标居中图像聚类应用程序不同,异常群集尤其具有挑战性,因为异常模式是微妙和本地的。我们使用基于补丁的预嵌入和现成的聚类方法提供了一个简单而有效的聚类框架。我们在图像之间定义距离功能,每个距离由加权平均嵌入的欧几里德距离表示为嵌入袋。重量定义了袋子中的实例(即贴片嵌入)的重要性,这可能会突出缺陷区域。如果标记为标记的正常数据,我们以无监督的方式计算权重或以半监督方式计算权重。广泛的实验研究表明,所提出的聚类框架的有效性以及在现有多实例或深簇框架上的新距离功能。总体而言,我们的框架在MVTEC对象和纹理类别上实现了0.451和0.674标准化的相互信息分数,并进一步改善了一些标记的正常数据(0.577,0.669),远远超过基线(0.244,0.273)或最先进的深层聚类方法(0.176,0.277)。
translated by 谷歌翻译
无监督的异常检测(UAD)只需要正常(健康)训练图像是实现医学图像分析(MIA)应用的重要工具,例如疾病筛查,因为通常难以收集和注释异常(或疾病)MIA中的图像。然而,严重依赖于正常图像可能导致模型训练过度填写正常类。自我监督的预训练是对这个问题的有效解决方案。遗憾的是,从计算机视觉调整的当前自我监督方法是MIA应用的次优,因为它们不探索设计借口任务或培训过程的MIA域知识。在本文中,我们提出了一种为MIA应用设计的UAD的新的自我监督的预训练方法,通过对比学习(MSACL)命名为多级强大增强。 MSACL基于新颖的优化,以对比正常和多种合成的异常图像,每个类在欧几里德距离和余弦相似度方面强制形成紧密和密集的聚类,其中通过模拟变化数量的病变形成异常图像在正常图像中的不同尺寸和外观。在实验中,我们表明,我们的MSACL预培训使用结肠镜检查,眼底筛选和Covid-19胸部X射线数据集来提高SOTA UAD方法的准确性。
translated by 谷歌翻译
与行业4.0的发展相一致,越来越多的关注被表面缺陷检测领域所吸引。提高效率并节省劳动力成本已稳步成为行业领域引起人们关注的问题,近年来,基于深度学习的算法比传统的视力检查方法更好。尽管现有的基于深度学习的算法偏向于监督学习,但这不仅需要大量标记的数据和大量的劳动力,而且还效率低下,并且有一定的局限性。相比之下,最近的研究表明,无监督的学习在解决视觉工业异常检测的高于缺点方面具有巨大的潜力。在这项调查中,我们总结了当前的挑战,并详细概述了最近提出的针对视觉工业异常检测的无监督算法,涵盖了五个类别,其创新点和框架详细描述了。同时,提供了包含表面图像样本的公开可用数据集的信息。通过比较不同类别的方法,总结了异常检测算法的优点和缺点。预计将协助研究社区和行业发展更广泛,更跨域的观点。
translated by 谷歌翻译
视觉异常检测通常用于工业质量检查。在本文中,我们提出了一个新的数据集以及一种新的自我监督学习方法,用于ImageNet预训练,以改善1级和2级和2级5/10/高光训练设置的异常检测和细分。我们释放视觉异常(Visa)数据集,该数据集由10,821个高分辨率颜色图像(9,621个正常和1200个异常样品)组成,涵盖了3个域中的12个对象,使其成为迄今为止最大的工业异常检测数据集。提供了图像和像素级标签。我们还提出了一个新的自我监督框架 - 斑点差异(SPD),该框架可以使对比度的自我监督预训练(例如Simsiam,Moco和Simc​​lr)更适合异常检测任务。我们在Visa和MVTEC-AD数据集上进行的实验表明,SPD始终改善这些对比的训练前基准,甚至是受监督的预训练。例如,SPD在Precision-Recall曲线(AU-PR)下改善了SIMSIAM比SIMSIAM的异常分割的面积,分别为6.8%,并分别监督了2级高弹药机制的预训练。我们通过http://github.com/amazon-research/spot-diff开放项目。
translated by 谷歌翻译
深度异常检测已被证明是几个领域的有效和强大的方法。自我监督学习的引入极大地帮助了许多方法,包括异常检测,其中使用简单的几何变换识别任务。然而,由于它们缺乏更精细的特征,因此这些方法在细粒度问题上表现不佳,并且通常高度依赖于异常类型。在本文中,我们探讨了使用借口任务的自我监督异常检测的每个步骤。首先,我们介绍了专注于不同视觉线索的新型鉴别和生成任务。一部分拼图拼图任务侧重于结构提示,而在每个件上使用色调旋转识别进行比色法,并且执行部分重新染色任务。为了使重新着色任务更关注对象而不是在后台上关注,我们建议包括图像边界的上下文颜色信息。然后,我们介绍了一个新的分配检测功能,并与其他分配检测方法相比,突出了其更好的稳定性。随之而来,我们还试验不同的分数融合功能。最后,我们在具有经典对象识别的对象异常组成的综合异常检测协议上评估我们的方法,用细粒度分类和面部反欺骗数据集的局部分类和局部异常的样式异常。我们的模型可以更准确地学习使用这些自我监督任务的高度辨别功能。它优于最先进的最先进的相对误差改善对象异常,40%的面对反欺骗问题。
translated by 谷歌翻译
当前,借助监督学习方法,基于深度学习的视觉检查已取得了非常成功的成功。但是,在实际的工业场景中,缺陷样本的稀缺性,注释的成本以及缺乏缺陷的先验知识可能会使基于监督的方法无效。近年来,无监督的异常定位算法已在工业检查任务中广泛使用。本文旨在通过深入学习在工业图像中无视无视的异常定位中的最新成就来帮助该领域的研究人员。该调查回顾了120多个重要出版物,其中涵盖了异常定位的各个方面,主要涵盖了所审查方法的各种概念,挑战,分类法,基准数据集和定量性能比较。在审查迄今为止的成就时,本文提供了一些未来研究方向的详细预测和分析。这篇综述为对工业异常本地化感兴趣的研究人员提供了详细的技术信息,并希望将其应用于其他领域的异常本质。
translated by 谷歌翻译
异常检测是要识别在某些方面与训练观察结果不同的样本。这些不符合正常数据分布的样本称为异常值或异常。在现实世界的异常检测问题中,离群值不存在,定义不当或实例非常有限。最近的最新基于深度学习的异常检测方法遭受了高计算成本,复杂性,不稳定的培训程序和非平凡的实施,因此它们很难在现实世界应用中部署。为了解决这个问题,我们利用一个简单的学习程序来训练轻量级的卷积神经网络,在异常检测中达到最先进的表现。在本文中,我们建议将异常检测作为监督回归问题。我们使用连续值的两个可分离分布标记正常和异常数据。为了补偿训练时间中异常样品的不可用,我们利用直接图像增强技术来创建一组不同的样本作为异常。增强集的分布相似,但与正常数据略有偏差,而实际异常将具有进一步的分布。因此,对这些增强样品的训练回归器将导致标签的分布更加可分离,以适应正常和真实的异常数据点。图像和视频数据集的异常检测实验显示了所提出的方法比最新方法的优越性。
translated by 谷歌翻译
机器学习模型通常会遇到与训练分布不同的样本。无法识别分布(OOD)样本,因此将该样本分配给课堂标签会显着损害模​​型的可靠性。由于其对在开放世界中的安全部署模型的重要性,该问题引起了重大关注。由于对所有可能的未知分布进行建模的棘手性,检测OOD样品是具有挑战性的。迄今为止,一些研究领域解决了检测陌生样本的问题,包括异常检测,新颖性检测,一级学习,开放式识别识别和分布外检测。尽管有相似和共同的概念,但分别分布,开放式检测和异常检测已被独立研究。因此,这些研究途径尚未交叉授粉,创造了研究障碍。尽管某些调查打算概述这些方法,但它们似乎仅关注特定领域,而无需检查不同领域之间的关系。这项调查旨在在确定其共同点的同时,对各个领域的众多著名作品进行跨域和全面的审查。研究人员可以从不同领域的研究进展概述中受益,并协同发展未来的方法。此外,据我们所知,虽然进行异常检测或单级学习进行了调查,但没有关于分布外检测的全面或最新的调查,我们的调查可广泛涵盖。最后,有了统一的跨域视角,我们讨论并阐明了未来的研究线,打算将这些领域更加紧密地融为一体。
translated by 谷歌翻译
Anomaly detection and localization are widely used in industrial manufacturing for its efficiency and effectiveness. Anomalies are rare and hard to collect and supervised models easily over-fit to these seen anomalies with a handful of abnormal samples, producing unsatisfactory performance. On the other hand, anomalies are typically subtle, hard to discern, and of various appearance, making it difficult to detect anomalies and let alone locate anomalous regions. To address these issues, we propose a framework called Prototypical Residual Network (PRN), which learns feature residuals of varying scales and sizes between anomalous and normal patterns to accurately reconstruct the segmentation maps of anomalous regions. PRN mainly consists of two parts: multi-scale prototypes that explicitly represent the residual features of anomalies to normal patterns; a multisize self-attention mechanism that enables variable-sized anomalous feature learning. Besides, we present a variety of anomaly generation strategies that consider both seen and unseen appearance variance to enlarge and diversify anomalies. Extensive experiments on the challenging and widely used MVTec AD benchmark show that PRN outperforms current state-of-the-art unsupervised and supervised methods. We further report SOTA results on three additional datasets to demonstrate the effectiveness and generalizability of PRN.
translated by 谷歌翻译
医学成像中各种各样的分布和分布数据使通用异常检测成为一项艰巨的任务。最近,已经开发了许多自我监督的方法,这些方法是对健康数据的端到端模型,并具有合成异常的增强。但是,很难比较这些方法,因为尚不清楚绩效的收益是从任务本身还是围绕其培训管道来进行的。也很难评估一项任务是否可以很好地通用通用异常检测,因为它们通常仅在有限的异常范围内进行测试。为了协助这一点,我们开发了NOOD,该框架适应NNU-NET,以比较自我监督的异常定位方法。通过将综合,自我监督的任务隔离在其余培训过程中,我们对任务进行了更忠实的比较,同时还可以快速简便地评估给定数据集的工作流程。使用此功能,我们实施了当前的最新任务,并在具有挑战性的X射线数据集上对其进行了评估。
translated by 谷歌翻译
异常检测(AD),将异常与正常数据分开,从安全性到医疗保健都有许多范围内的应用程序。尽管大多数以前的作品都被证明对具有完全或部分标记数据的案例有效,但由于标记对此任务特别乏味,因此设置在实践中较不常见。在本文中,我们专注于完全无监督的AD,其中包含正常样本和异常样本的整个培训数据集未标记。为了有效地解决这个问题,我们建议通过使用数据改进过程来提高接受自我监督表示的一类分类的鲁棒性。我们提出的数据完善方法基于单级分类器(OCCS)的集合,每个分类器均经过培训的训练数据子集。随着数据改进的改进,通过自我监督学习学到的表示的表示。我们在具有图像和表格数据的各种无监督的AD任务上演示了我们的方法。 CIFAR-10图像数据的异常比率为10% /甲状腺表格数据的2.5%异常比率,该方法的表现优于最先进的单级分类器,高于6.3 AUC和12.5平均精度 / 22.9 F1评分。 。
translated by 谷歌翻译
无监督的异常检测和定位对于采集和标记足够的异常数据时对实际应用至关重要。基于现有的基于表示的方法提取具有深度卷积神经网络的正常图像特征,并通过非参数分布估计方法表征相应的分布。通过测量测试图像的特征与估计分布之间的距离来计算异常分数。然而,当前方法无法将图像特征与易解基本分布有效地映射到局部和全局特征之间的关系,这些功能与识别异常很重要。为此,我们提出了使用2D标准化流动实现的FastFlow,并将其用作概率分布估计器。我们的FastFlow可用作具有任意深度特征提取器的插入式模块,如Reset和Vision变压器,用于无监督的异常检测和定位。在训练阶段,FastFlow学习将输入视觉特征转换为贸易分布并获得识别推理阶段中的异常的可能性。 MVTEC AD数据集的广泛实验结果显示,在具有各种骨干网络的准确性和推理效率方面,FastFlow在先前的最先进的方法上超越了先前的方法。我们的方法通过高推理效率达到异常检测中的99.4%AUC。
translated by 谷歌翻译
Deep anomaly detection methods learn representations that separate between normal and anomalous images. Although self-supervised representation learning is commonly used, small dataset sizes limit its effectiveness. It was previously shown that utilizing external, generic datasets (e.g. ImageNet classification) can significantly improve anomaly detection performance. One approach is outlier exposure, which fails when the external datasets do not resemble the anomalies. We take the approach of transferring representations pre-trained on external datasets for anomaly detection. Anomaly detection performance can be significantly improved by fine-tuning the pre-trained representations on the normal training images. In this paper, we first demonstrate and analyze that contrastive learning, the most popular self-supervised learning paradigm cannot be naively applied to pre-trained features. The reason is that pre-trained feature initialization causes poor conditioning for standard contrastive objectives, resulting in bad optimization dynamics. Based on our analysis, we provide a modified contrastive objective, the Mean-Shifted Contrastive Loss. Our method is highly effective and achieves a new state-of-the-art anomaly detection performance including $98.6\%$ ROC-AUC on the CIFAR-10 dataset.
translated by 谷歌翻译
This paper presents SimCLR: a simple framework for contrastive learning of visual representations. We simplify recently proposed contrastive selfsupervised learning algorithms without requiring specialized architectures or a memory bank. In order to understand what enables the contrastive prediction tasks to learn useful representations, we systematically study the major components of our framework. We show that (1) composition of data augmentations plays a critical role in defining effective predictive tasks, (2) introducing a learnable nonlinear transformation between the representation and the contrastive loss substantially improves the quality of the learned representations, and (3) contrastive learning benefits from larger batch sizes and more training steps compared to supervised learning. By combining these findings, we are able to considerably outperform previous methods for self-supervised and semi-supervised learning on ImageNet. A linear classifier trained on self-supervised representations learned by Sim-CLR achieves 76.5% top-1 accuracy, which is a 7% relative improvement over previous state-ofthe-art, matching the performance of a supervised ResNet-50. When fine-tuned on only 1% of the labels, we achieve 85.8% top-5 accuracy, outperforming AlexNet with 100× fewer labels. 1
translated by 谷歌翻译
在图像中检测异常区域是工业监测中经常遇到的问题。一个相关的例子是对正常条件下符合特定纹理的组织和其他产品的分析,而缺陷会引入正常模式的变化。我们通过训练深层自动编码器来解决异常检测问题,我们表明,基于复杂的小波结构相似性(CW-SSIM)采用损失函数(CW-SSIM)与传统的自动编码器损失函数相比,这类图像上的检测性能出色。我们对众所周知的异常检测基准测试的实验表明,通过这种损失函数训练的简单模型可以实现可比性或优越的性能,从而利用更深入,更大,更大的计算要求的神经网络的最先进方法。
translated by 谷歌翻译