CNN表现出与人类不同的许多行为,其中之一是采用高频组件的能力。本文讨论了图像分类任务中的频率偏差现象:高频组件实际上比低频和中频组件的利用要少得多。我们首先通过提出有关特征歧视和学习优先级的两个观察结果来研究频率偏差现象。此外,我们假设(i)光谱密度,(ii)类一致性直接影响频率偏差。具体而言,我们的研究验证数据集的光谱密度主要影响学习优先级,而课程一致性主要影响特征歧视。
translated by 谷歌翻译
尽管他们能够代表高度表现力的功能,但深度学习模型似乎找到了简单的解决方案,这些解决方案令人惊讶地概括了。光谱偏见 - 神经网络优先学习低频功能的趋势 - 是对此现象的一种可能解释,但是到目前为止,在理论模型和简化实验中,主要观察到了光谱偏差。在这项工作中,我们提出了用于测量CIFAR-10和Imagenet上现代图像分类网络中光谱偏差的方法。我们发现这些网络确实表现出光谱偏差,并且提高CIFAR-10测试准确性的干预措施往往会产生学到的功能,这些功能总体上具有较高的频率,但在每个类别的示例附近频率较低。这种趋势在培训时间,模型架构,培训示例的数量,数据增强和自我介绍的变化之间存在。我们还探索了功能频率和图像频率之间的连接,并发现光谱偏置对自然图像中普遍存在的低频敏感。在Imagenet上,我们发现学习的功能频率也随内部类别的多样性而变化,并且在更多样化的类别上具有较高的频率。我们的工作使测量并最终影响用于图像分类的神经网络的光谱行为,并且是理解为什么深层模型良好概述的一步。
translated by 谷歌翻译
生成的对抗网络(GANS)能够生成从真实图像视觉无法区分的图像。然而,最近的研究表明,生成和实际图像在频域中共享显着差异。在本文中,我们探讨了高频分量在GAN训练中的影响。根据我们的观察,在大多数GAN的培训期间,严重的高频差异使鉴别器聚焦在过度高频成分上,阻碍了发电机拟合了对学习图像内容很重要的低频分量。然后,我们提出了两个简单但有效的频率操作,以消除由GAN训练的高频差异引起的副作用:高频混淆(HFC)和高频滤波器(HFF)。拟议的操作是一般的,可以应用于大多数现有的GAN,一小部分成本。在多丢失函数,网络架构和数据集中验证了所提出的操作的高级性能。具体而言,拟议的HFF在Celeba(128 * 128)基于SSNGAN的Celeba无条件生成的Celeba(128 * 128)无条件一代,在Celeba无条件一代基于SSGAN的13.2 \%$ 30.2 \%$ 69.3 \%$ 69.3 \%$ FID在Celeba无条件一代基于Infomaxgan。
translated by 谷歌翻译
We investigate the relationship between the frequency spectrum of image data and the generalization behavior of convolutional neural networks (CNN). We first notice CNN's ability in capturing the high-frequency components of images. These high-frequency components are almost imperceptible to a human. Thus the observation leads to multiple hypotheses that are related to the generalization behaviors of CNN, including a potential explanation for adversarial examples, a discussion of CNN's trade-off between robustness and accuracy, and some evidence in understanding training heuristics.
translated by 谷歌翻译
Convolutional Neural Networks (CNNs) have demonstrated superiority in learning patterns, but are sensitive to label noises and may overfit noisy labels during training. The early stopping strategy averts updating CNNs during the early training phase and is widely employed in the presence of noisy labels. Motivated by biological findings that the amplitude spectrum (AS) and phase spectrum (PS) in the frequency domain play different roles in the animal's vision system, we observe that PS, which captures more semantic information, can increase the robustness of DNNs to label noise, more so than AS can. We thus propose early stops at different times for AS and PS by disentangling the features of some layer(s) into AS and PS using Discrete Fourier Transform (DFT) during training. Our proposed Phase-AmplituDe DisentangLed Early Stopping (PADDLES) method is shown to be effective on both synthetic and real-world label-noise datasets. PADDLES outperforms other early stopping methods and obtains state-of-the-art performance.
translated by 谷歌翻译
Neural networks are known to be a class of highly expressive functions able to fit even random inputoutput mappings with 100% accuracy. In this work we present properties of neural networks that complement this aspect of expressivity. By using tools from Fourier analysis, we highlight a learning bias of deep networks towards low frequency functions -i.e. functions that vary globally without local fluctuations -which manifests itself as a frequency-dependent learning speed. Intuitively, this property is in line with the observation that over-parameterized networks prioritize learning simple patterns that generalize across data samples. We also investigate the role of the shape of the data manifold by presenting empirical and theoretical evidence that, somewhat counter-intuitively, learning higher frequencies gets easier with increasing manifold complexity.
translated by 谷歌翻译
对抗性攻击对神经网络来说仍然是一个重大挑战。最近的工作表明,对抗性扰动通常包含高频特征,但这种现象的根本原因仍然未知。灵感来自于线性全宽卷积模型的理论工作,我们假设当前神经网络中常用的本地(即界宽)卷积操作被隐含地偏置以学习高频特征,并且这是根本原因之一高频对抗例。为了测试这一假设,我们在空间和频率域中分析了线性和非线性架构对学习特征和对抗扰动的隐含偏差的影响。我们发现高频对抗性扰动批判性地取决于卷积操作,因为本地互联网的空间有限的性质引起了对高频特征的隐含偏差。后者的解释涉及傅立叶不确定性原理:空间限制(空间域中的本地)滤波器也不能是频率限制(频域中的本地)。此外,使用较大的卷积核尺寸或避免卷曲(例如,通过使用视觉变压器架构)显着降低了这种高频偏差,但不是对攻击的总体易感性。期待着,我们的工作强烈建议了解和控制架构的隐含偏差对于实现对抗性鲁棒性至关重要。
translated by 谷歌翻译
众所周知,语义分割神经网络(SSNN)产生密集的分割图来解决对象的边界,同时限制了对下采样的网格的预测以减轻计算成本。存在SSNN(例如U-NET)的准确性和训练成本之间的显着平衡。我们提出了一项光谱分析,以研究下采样网格的分辨率,损耗函数和SSNN的准确性之间的相关性。通过分析频域中的网络后传播过程,我们发现传统的损耗函数,跨熵和CNN的关键特征主要受分割标签的低频组件的影响。我们的发现可以通过多种方式应用于SSNN,包括(i)确定有效的低分辨率网格,用于解决分割图(ii)通过截断高频解码器以节省计算成本的高频解码器,以及(iii)使用块 - - 明智的弱注释来节省标签时间。本文中显示的实验结果与我们针对诸如DeepLab V3+和Deep Cotnegation Net(DAN)等网络的光谱分析一致。
translated by 谷歌翻译
适应分布数据的数据是所有统计学习算法的元挑战,这些算法强烈依赖于I.I.D.假设。它导致不可避免的人工成本和在现实应用中的信心危机。为此,域的概括旨在从多个源域中的挖掘域 - 核定知识,这些知识可以推广到看不见的目标域。在本文中,通过利用图像的频域,我们独特地使用两个关键观察:(i)图像的高频信息描绘了对象边缘结构,该信息保留对象的高级语义信息自然是一致的跨不同域,(ii)低频组件保留对象平滑结构,而此信息易于域移动。在上述观察结果的激励下,我们引入(i)图像的高频和低频功能,(ii)一种信息交互机制,以确保两个部分的有用知识可以有效地合作,并且(iii)一种新型的数据增强技术,可在频域上起作用,以鼓励频率特征的稳健性。提出的方法在三个广泛使用的域概括基准(Digit-DG,Office-home和pac)上获得了最先进的性能。
translated by 谷歌翻译
尽管卷积神经网络(CNN)在图像识别方面具有很高的精度,但它们容易受到对抗性示例和分布数据的影响,并且已经指出了人类识别的差异。为了提高针对分布数据的鲁棒性,我们提出了一种基于频率的数据增强技术,该技术将频率组件用同一类的其他图像替换。当培训数据为CIFAR10并且分发数据的数据为SVHN时,使用该方法训练的模型的接收器操作特征(AUROC)曲线从89.22 \%\%增加到98.15 \%,并进一步增加到98.59\%与另一种数据增强方法结合使用。此外,我们在实验上证明了分布外数据的可靠模型使用图像的许多高频组件。
translated by 谷歌翻译
We propose a novel antialiasing method to increase shift invariance in convolutional neural networks (CNNs). More precisely, we replace the conventional combination "real-valued convolutions + max pooling" ($\mathbb R$Max) by "complex-valued convolutions + modulus" ($\mathbb C$Mod), which produce stable feature representations for band-pass filters with well-defined orientations. In a recent work, we proved that, for such filters, the two operators yield similar outputs. Therefore, $\mathbb C$Mod can be viewed as a stable alternative to $\mathbb R$Max. To separate band-pass filters from other freely-trained kernels, in this paper, we designed a "twin" architecture based on the dual-tree complex wavelet packet transform, which generates similar outputs as standard CNNs with fewer trainable parameters. In addition to improving stability to small shifts, our experiments on AlexNet and ResNet showed increased prediction accuracy on natural image datasets such as ImageNet and CIFAR10. Furthermore, our approach outperformed recent antialiasing methods based on low-pass filtering by preserving high-frequency information, while reducing memory usage.
translated by 谷歌翻译
在过去的几年中,卷积神经网络(CNN)一直是广泛的计算机视觉任务中的主导神经架构。从图像和信号处理的角度来看,这一成功可能会令人惊讶,因为大多数CNN的固有空间金字塔设计显然违反了基本的信号处理法,即在其下采样操作中对定理进行采样。但是,由于不良的采样似乎不影响模型的准确性,因此在模型鲁棒性开始受到更多关注之前,该问题已被广泛忽略。最近的工作[17]在对抗性攻击和分布变化的背景下,毕竟表明,CNN的脆弱性与不良下降采样操作引起的混叠伪像之间存在很强的相关性。本文以这些发现为基础,并引入了一个可混合的免费下采样操作,可以轻松地插入任何CNN体系结构:频lowcut池。我们的实验表明,结合简单而快速的FGSM对抗训练,我们的超参数无操作员显着提高了模型的鲁棒性,并避免了灾难性的过度拟合。
translated by 谷歌翻译
Recent self-supervised video representation learning methods focus on maximizing the similarity between multiple augmented views from the same video and largely rely on the quality of generated views. However, most existing methods lack a mechanism to prevent representation learning from bias towards static information in the video. In this paper, we propose frequency augmentation (FreqAug), a spatio-temporal data augmentation method in the frequency domain for video representation learning. FreqAug stochastically removes specific frequency components from the video so that learned representation captures essential features more from the remaining information for various downstream tasks. Specifically, FreqAug pushes the model to focus more on dynamic features rather than static features in the video via dropping spatial or temporal low-frequency components. To verify the generality of the proposed method, we experiment with FreqAug on multiple self-supervised learning frameworks along with standard augmentations. Transferring the improved representation to five video action recognition and two temporal action localization downstream tasks shows consistent improvements over baselines.
translated by 谷歌翻译
现在,多头自我引入(MSA)对于计算机视觉的成功是无可争议的。但是,对于MSA的工作方式知之甚少。我们提出了基本的解释,以帮助更好地理解MSA的性质。特别是,我们证明了MSA和视觉变压器(VITS)的以下特性:(1)MSA不仅提高准确性,而且通过使损失景观变色来提高概括。这种改进主要归因于其数据特异性,而不是长期依赖性。另一方面,VIT遭受了非凸损的损失。大型数据集和损失景观平滑方法可以减轻此问题; (2)MSA和Convs表现出相反的行为。例如,MSA是低通滤波器,但Convs是高通滤波器。因此,MSA和Convs是互补的。 (3)多阶段神经网络的行为就像小型模型的系列连接。此外,舞台结束时的MSA在预测中起着关键作用。基于这些见解,我们提出了替代方案,其中一个模型在阶段末尾的Cons块被MSA块替换为MSA块。替代表的表现不仅超过了大型数据制度,而且在小型数据制度中的表现也优于CNN。该代码可在https://github.com/xxxnell/how-do-vits-work上找到。
translated by 谷歌翻译
Synthetic data offers the promise of cheap and bountiful training data for settings where lots of labeled real-world data for tasks is unavailable. However, models trained on synthetic data significantly underperform on real-world data. In this paper, we propose Proportional Amplitude Spectrum Training Augmentation (PASTA), a simple and effective augmentation strategy to improve out-of-the-box synthetic-to-real (syn-to-real) generalization performance. PASTA involves perturbing the amplitude spectrums of the synthetic images in the Fourier domain to generate augmented views. We design PASTA to perturb the amplitude spectrums in a structured manner such that high-frequency components are perturbed relatively more than the low-frequency ones. For the tasks of semantic segmentation (GTAV to Real), object detection (Sim10K to Real), and object recognition (VisDA-C Syn to Real), across a total of 5 syn-to-real shifts, we find that PASTA outperforms more complex state-of-the-art generalization methods while being complementary to the same.
translated by 谷歌翻译
深度学习的快速发展为高光谱图像(HSI)的端到端重建提供了更好的解决方案。但是,现有的基于学习的方法有两个主要缺陷。首先,具有自我注意力的网络通常会牺牲内部分辨率,以平衡模型性能与复杂性,失去细粒度的高分辨率(HR)功能。其次,即使专注于空间光谱域学习(SDL)的优化也会收敛到理想解决方案,但重建的HSI与真相之间仍然存在显着的视觉差异。因此,我们为HSI重建提出了一个高分辨率双域学习网络(HDNET)。一方面,提出的及其有效特征融合的人力资源空间光谱注意模块可提供连续且精细的像素级特征。另一方面,引入了频域学习(FDL),以供HSI重建以缩小频域差异。动态FDL监督迫使模型重建细粒频率,并补偿由像素级损失引起的过度平滑和失真。我们的HDNET相互促进HSI感知质量的人力资源像素水平的注意力和频率级别的完善。广泛的定量和定性评估实验表明,我们的方法在模拟和真实的HSI数据集上实现了SOTA性能。代码和模型将在https://github.com/caiyuanhao1998/mst上发布
translated by 谷歌翻译
生成的对抗网络由于研究人员的最新性能在生成新图像时仅使用目标分布的数据集,因此引起了研究人员的关注。已经表明,真实图像的频谱和假图像之间存在差异。由于傅立叶变换是一种徒图映射,因此说该模型在学习原始分布方面有一个重大问题是一个公平的结论。在这项工作中,我们研究了当前gan的架构和数学理论中提到的缺点的可能原因。然后,我们提出了一个新模型,以减少实际图像和假图像频谱之间的差异。为此,我们使用几何深度学习的蓝图为频域设计了一个全新的架构。然后,我们通过将原始数据的傅立叶域表示作为训练过程中的主要特征来表明生成图像的质量的有希望的改善。
translated by 谷歌翻译
经过认证的稳健性保证衡量模型对测试时间攻击的稳健性,并且可以评估模型对现实世界中部署的准备情况。在这项工作中,我们批判性地研究了对基于随机平滑的认证方法的对抗鲁棒性如何在遇到配送外(OOD)数据的最先进的鲁棒模型时改变。我们的分析显示了这些模型的先前未知的漏洞,以低频OOD数据,例如与天气相关的损坏,使这些模型不适合在野外部署。为了缓解这个问题,我们提出了一种新的数据增强方案,Fourimix,产生增强以改善训练数据的光谱覆盖范围。此外,我们提出了一种新规范器,鼓励增强数据的噪声扰动的一致预测,以提高平滑模型的质量。我们发现Fouriermix增强有助于消除可认真强大的模型的频谱偏差,使其能够在一系列ood基准上实现明显更好的稳健性保证。我们的评估还在突出模型的光谱偏差时揭示了当前的OOD基准。为此,我们提出了一个全面的基准套件,其中包含来自光谱域中不同区域的损坏。对拟议套件上流行的增强方法培训的模型的评估突出了它们的光谱偏差,并建立了富硫克斯训练型模型在实现整个频谱上变化下的更好认证的鲁棒性担保的优势。
translated by 谷歌翻译
最近的工作表明,不同体系结构的卷积神经网络学会按照相同的顺序对图像进行分类。为了理解这种现象,我们重新审视了过度参数的深度线性网络模型。我们的分析表明,当隐藏层足够宽时,该模型参数的收敛速率沿数据的较大主组件的方向呈指数级数,该方向由由相应的奇异值控制的速率。我们称这种收敛模式主成分偏差(PC偏置)。从经验上讲,我们展示了PC偏差如何简化线性和非线性网络的学习顺序,在学习的早期阶段更为突出。然后,我们将结果与简单性偏见进行比较,表明可以独立看到这两个偏见,并以不同的方式影响学习顺序。最后,我们讨论了PC偏差如何解释早期停止及其与PCA的联系的一些好处,以及为什么深网与随机标签更慢地收敛。
translated by 谷歌翻译
尽管在构建强大的神经网络方面具有明显的计算优势,但使用单步方法的对抗训练(AT)是不稳定的,因为它遭受了灾难性的过度拟合(CO):网络在对抗性训练的第一阶段获得了非平凡的鲁棒性,但突然达到了一个阶段在几次迭代中,他们很快失去了所有鲁棒性。尽管有些作品成功地预防了CO,但导致这种显着失败模式的不同机制仍然很少理解。但是,在这项工作中,我们发现数据结构与AT动力学之间的相互作用在CO中起着基本作用。特别是,通过对自然图像的典型数据集进行主动干预,我们建立了一个因果关系。在方法上单步中的数据和CO的发作。这种新的观点提供了对导致CO的机制的重要见解,并为更好地理解强大模型构建的一般动态铺平了道路。可以在https://github.com/gortizji/co_features上找到复制本文实验的代码。
translated by 谷歌翻译