Convolutional neural networks (CNNs) have constantly achieved better performance over years by introducing more complex topology, and enlarging the capacity towards deeper and wider CNNs. This makes the manual design of CNNs extremely difficult, so the automated design of CNNs has come into the research spotlight, which has obtained CNNs that outperform manually-designed CNNs. However, the computational cost is still the bottleneck of automatically designing CNNs. In this paper, inspired by transfer learning, a new evolutionary computation based framework is proposed to efficiently evolve CNNs without compromising the classification accuracy. The proposed framework leverages multi-source domains, which are smaller datasets than the target domain datasets, to evolve a generalised CNN block only once. And then, a new stacking method is proposed to both widen and deepen the evolved block, and a grid search method is proposed to find optimal stacking solutions. The experimental results show the proposed method acquires good CNNs faster than 15 peer competitors within less than 40 GPU-hours. Regarding the classification accuracy, the proposed method gains its strong competitiveness against the peer competitors, which achieves the best error rates of 3.46%, 18.36% and 1.76% for the CIFAR-10, CIFAR-100 and SVHN datasets, respectively.
translated by 谷歌翻译
已经发现深层神经网络容易受到对抗攻击的影响,从而引起了对安全敏感的环境的潜在关注。为了解决这个问题,最近的研究从建筑的角度研究了深神经网络的对抗性鲁棒性。但是,搜索深神经网络的体系结构在计算上是昂贵的,尤其是当与对抗性训练过程相结合时。为了应对上述挑战,本文提出了双重主体神经体系结构搜索方法。首先,我们制定了NAS问题,以增强深度神经网络的对抗性鲁棒性为多目标优化问题。具体而言,除了低保真绩效预测器作为第一个目标外,我们还利用辅助目标 - 其值是经过高保真评估训练的替代模型的输出。其次,我们通过结合三种性能估计方法,即参数共享,低保真评估和基于替代的预测指标来降低计算成本。在CIFAR-10,CIFAR-100和SVHN数据集上进行的广泛实验证实了所提出的方法的有效性。
translated by 谷歌翻译
Deep convolutional neural networks have proven their effectiveness, and have been acknowledged as the most dominant method for image classification. However, a severe drawback of deep convolutional neural networks is poor explainability. Unfortunately, in many real-world applications, users need to understand the rationale behind the predictions of deep convolutional neural networks when determining whether they should trust the predictions or not. To resolve this issue, a novel genetic algorithm-based method is proposed for the first time to automatically evolve local explanations that can assist users to assess the rationality of the predictions. Furthermore, the proposed method is model-agnostic, i.e., it can be utilised to explain any deep convolutional neural network models. In the experiments, ResNet is used as an example model to be explained, and the ImageNet dataset is selected as the benchmark dataset. DenseNet and MobileNet are further explained to demonstrate the model-agnostic characteristic of the proposed method. The evolved local explanations on four images, randomly selected from ImageNet, are presented, which show that the evolved local explanations are straightforward to be recognised by humans. Moreover, the evolved explanations can explain the predictions of deep convolutional neural networks on all four images very well by successfully capturing meaningful interpretable features of the sample images. Further analysis based on the 30 runs of the experiments exhibits that the evolved local explanations can also improve the probabilities/confidences of the deep convolutional neural network models in making the predictions. The proposed method can obtain local explanations within one minute, which is more than ten times faster than LIME (the state-of-the-art method).
translated by 谷歌翻译
数据有效的图像分类是一项具有挑战性的任务,旨在使用小型培训数据来解决图像分类。基于神经网络的深度学习方法对于图像分类很有效,但是它们通常需要大规模的培训数据,并且具有重大局限性,例如需要专业知识来设计网络架构和具有差的可解释性。进化深度学习是一个最近的热门话题,将进化计算与深度学习结合在一起。但是,大多数进化的深度学习方法都集中在神经网络的架构上,这些方法仍然遭受诸如不良解释性之类的局限性。为了解决这个问题,本文提出了一种新的基于基因编程的进化深度学习方法,以进行数据有效的图像分类。新方法可以使用来自图像和分类域的许多重要运算符自动发展可变长度模型。它可以从颜色或灰度图像中学习不同类型的图像特征,并构建有效而多样的合奏以进行图像分类。灵活的多层表示可以使新方法自动构建浅层或深模型/树以进行不同的任务,并通过多个内部节点对输入数据进行有效的转换。新方法用于解决具有不同训练集大小的五个图像分类任务。结果表明,在大多数情况下,它比深度学习方法的图像分类更好。深入的分析表明,新方法具有良好的收敛性,并演变具有高解释性,不同长度/尺寸/形状以及良好可传递性的模型。
translated by 谷歌翻译
神经体系结构搜索(NAS)最近在深度学习社区中变得越来越流行,主要是因为它可以提供一个机会,使感兴趣的用户没有丰富的专业知识,从而从深度神经网络(DNNS)的成功中受益。但是,NAS仍然很费力且耗时,因为在NAS的搜索过程中需要进行大量的性能估计,并且训练DNNS在计算上是密集的。为了解决NAS的主要局限性,提高NAS的效率对于NAS的设计至关重要。本文以简要介绍了NAS的一般框架。然后,系统地讨论了根据代理指标评估网络候选者的方法。接下来是对替代辅助NAS的描述,该NAS分为三个不同类别,即NAS的贝叶斯优化,NAS的替代辅助进化算法和NAS的MOP。最后,讨论了剩余的挑战和开放研究问题,并在这个新兴领域提出了有希望的研究主题。
translated by 谷歌翻译
近年来,行业和学术界的深度学习(DL)迅速发展。但是,找到DL模型的最佳超参数通常需要高计算成本和人类专业知识。为了减轻上述问题,进化计算(EC)作为一种强大的启发式搜索方法显示出在DL模型的自动设计中,所谓的进化深度学习(EDL)具有重要优势。本文旨在从自动化机器学习(AUTOML)的角度分析EDL。具体来说,我们首先从机器学习和EC阐明EDL,并将EDL视为优化问题。根据DL管道的说法,我们系统地介绍了EDL方法,从功能工程,模型生成到具有新的分类法的模型部署(即,什么以及如何发展/优化),专注于解决方案表示和搜索范式的讨论通过EC处理优化问题。最后,提出了关键的应用程序,开放问题以及可能有希望的未来研究线。这项调查回顾了EDL的最新发展,并为EDL的开发提供了有见地的指南。
translated by 谷歌翻译
计算机视觉(CV)是涵盖广泛应用的人工智能中的一个重要领域。图像分析是CV的主要任务,目的是提取,分析和理解图像的视觉内容。但是,由于许多因素,图像之间的较高变化,高维度,域专业知识要求和图像扭曲,因此与图像相关的任务非常具有挑战性。进化计算方法(EC)方法已被广泛用于图像分析,并取得了重大成就。但是,没有对现有的EC方法进行图像分析的全面调查。为了填补这一空白,本文提供了一项全面的调查,涵盖了重要的图像分析任务的所有基本EC方法,包括边缘检测,图像分割,图像特征分析,图像分类,对象检测等。这项调查旨在通过讨论不同方法的贡献并探讨如何以及为什么将EC用于简历和图像分析,以更好地了解进化计算机视觉(ECV)。还讨论并总结了与该研究领域相关的应用,挑战,问题和趋势,以提供进一步的指南和未来研究的机会。
translated by 谷歌翻译
卷积神经网络(Convnets或CNNS)已被坦率地部署在计算机视觉和相关领域的范围中。然而,这些神经网络的训练动态仍然难以捉摸:训练它们很难且计算昂贵。已经提出了无数的架构和培训策略来克服这一挑战,并解决了图像处理中的几个问题,例如语音,图像和动作识别以及对象检测。在本文中,我们提出了一种基于粒子群优化(PSO)的新型训练。在这样的框架中,每个转弯的权重向量通常被铸成一个粒子在相空间中的位置,从而使PSO协作动力学与随机梯度下降(SGD)交织在一起,以提高训练性能和泛化。我们的方法如下:i)[常规阶段]每个Convnet都通过SGD独立训练; ii)[协作阶段] convnets在当前的权重(或粒子位置)及其对损耗函数的梯度估计中共享。不同的台阶尺寸由不同的convnet创造。通过将较大(可能是随机)的阶梯尺寸以及更保守的阶梯尺寸正确混合,我们提出了一种具有竞争性能的算法,相对于CIFAR-10的其他基于PSO的方法(精度为98.31%)。这些准确性水平是通过仅诉诸四个Convnet来获得的 - 预计此类结果将随着协作交流的数量而扩展。我们使我们的源代码可用于下载https://github.com/leonlha/pso-convnet-dynamics。
translated by 谷歌翻译
Recent work has shown that convolutional networks can be substantially deeper, more accurate, and efficient to train if they contain shorter connections between layers close to the input and those close to the output. In this paper, we embrace this observation and introduce the Dense Convolutional Network (DenseNet), which connects each layer to every other layer in a feed-forward fashion. Whereas traditional convolutional networks with L layers have L connections-one between each layer and its subsequent layer-our network has L(L+1) 2 direct connections. For each layer, the feature-maps of all preceding layers are used as inputs, and its own feature-maps are used as inputs into all subsequent layers. DenseNets have several compelling advantages: they alleviate the vanishing-gradient problem, strengthen feature propagation, encourage feature reuse, and substantially reduce the number of parameters. We evaluate our proposed architecture on four highly competitive object recognition benchmark tasks SVHN, and ImageNet). DenseNets obtain significant improvements over the state-of-the-art on most of them, whilst requiring less computation to achieve high performance. Code and pre-trained models are available at https://github.com/liuzhuang13/DenseNet.
translated by 谷歌翻译
最近,已经成功地应用于各种遥感图像(RSI)识别任务的大量基于深度学习的方法。然而,RSI字段中深度学习方法的大多数现有进步严重依赖于手动设计的骨干网络提取的特征,这严重阻碍了由于RSI的复杂性以及先前知识的限制而受到深度学习模型的潜力。在本文中,我们研究了RSI识别任务中的骨干架构的新设计范式,包括场景分类,陆地覆盖分类和对象检测。提出了一种基于权重共享策略和进化算法的一拍架构搜索框架,称为RSBNet,其中包括三个阶段:首先,在层面搜索空间中构造的超空网是在自组装的大型中预先磨削 - 基于集合单路径培训策略进行缩放RSI数据集。接下来,预先培训的SuperNet通过可切换识别模块配备不同的识别头,并分别在目标数据集上进行微调,以获取特定于任务特定的超网络。最后,我们根据没有任何网络训练的进化算法,搜索最佳骨干架构进行不同识别任务。对于不同识别任务的五个基准数据集进行了广泛的实验,结果显示了所提出的搜索范例的有效性,并证明搜索后的骨干能够灵活地调整不同的RSI识别任务并实现令人印象深刻的性能。
translated by 谷歌翻译
We propose a new method for learning the structure of convolutional neural networks (CNNs) that is more efficient than recent state-of-the-art methods based on reinforcement learning and evolutionary algorithms. Our approach uses a sequential model-based optimization (SMBO) strategy, in which we search for structures in order of increasing complexity, while simultaneously learning a surrogate model to guide the search through structure space. Direct comparison under the same search space shows that our method is up to 5 times more efficient than the RL method of Zoph et al. (2018) in terms of number of models evaluated, and 8 times faster in terms of total compute. The structures we discover in this way achieve state of the art classification accuracies on CIFAR-10 and ImageNet.
translated by 谷歌翻译
尽管在许多应用中取得了巨大的成功,但深度神经网络在实践中并不总是强大的。例如,用于分类任务的卷积神经元网络(CNN)模型通常在对某些特定类别的对象分类时表现不佳。在这项工作中,我们关注的是修补CNN模型的弱部分,而不是通过整个模型的昂贵重新培训来改进它。受到软件工程中模块化和组成的基本概念的启发,我们提出了一种压缩模块化方法CNNSplitter,该方法将$ N $ class分类的强CNN模型分解为$ n $ n $ n $ n $ smill CNN模块。每个模块都是一个子模型,其中包含强模型的卷积内核的一部分。为了修补对目标类(TC)进行不满意的弱CNN模型,我们将弱的CNN模型与从强CNN模型获得的相应模块组成。因此,弱CNN模型识别TC的能力可以通过修补来提高。此外,识别非TCS的能力也得到了提高,因为将样品错误分类为TC可以正确分类为非TCS。在三个广泛使用的数据集上使用两个代表性CNN的实验结果表明,在精度和召回方面,TC的平均改进分别为12.54%和2.14%。此外,修补程序将非TCS的准确性提高了1.18%。结果表明,CNNSplitter可以通过模块化和组成来修补弱的CNN模型,从而为开发可靠的CNN模型提供了新的解决方案。
translated by 谷歌翻译
Deep neural networks (DNNs) are found to be vulnerable to adversarial attacks, and various methods have been proposed for the defense. Among these methods, adversarial training has been drawing increasing attention because of its simplicity and effectiveness. However, the performance of the adversarial training is greatly limited by the architectures of target DNNs, which often makes the resulting DNNs with poor accuracy and unsatisfactory robustness. To address this problem, we propose DSARA to automatically search for the neural architectures that are accurate and robust after adversarial training. In particular, we design a novel cell-based search space specially for adversarial training, which improves the accuracy and the robustness upper bound of the searched architectures by carefully designing the placement of the cells and the proportional relationship of the filter numbers. Then we propose a two-stage search strategy to search for both accurate and robust neural architectures. At the first stage, the architecture parameters are optimized to minimize the adversarial loss, which makes full use of the effectiveness of the adversarial training in enhancing the robustness. At the second stage, the architecture parameters are optimized to minimize both the natural loss and the adversarial loss utilizing the proposed multi-objective adversarial training method, so that the searched neural architectures are both accurate and robust. We evaluate the proposed algorithm under natural data and various adversarial attacks, which reveals the superiority of the proposed method in terms of both accurate and robust architectures. We also conclude that accurate and robust neural architectures tend to deploy very different structures near the input and the output, which has great practical significance on both hand-crafting and automatically designing of accurate and robust neural architectures.
translated by 谷歌翻译
近年来,计算机视觉社区中最受欢迎的技术之一就是深度学习技术。作为一种数据驱动的技术,深层模型需要大量准确标记的培训数据,这在许多现实世界中通常是无法访问的。数据空间解决方案是数据增强(DA),可以人为地从原始样本中生成新图像。图像增强策略可能因数据集而有所不同,因为不同的数据类型可能需要不同的增强以促进模型培训。但是,DA策略的设计主要由具有领域知识的人类专家决定,这被认为是高度主观和错误的。为了减轻此类问题,一个新颖的方向是使用自动数据增强(AUTODA)技术自动从给定数据集中学习图像增强策略。 Autoda模型的目的是找到可以最大化模型性能提高的最佳DA策略。这项调查从图像分类的角度讨论了Autoda技术出现的根本原因。我们确定标准自动赛车模型的三个关键组件:搜索空间,搜索算法和评估功能。根据他们的架构,我们提供了现有图像AUTODA方法的系统分类法。本文介绍了Autoda领域的主要作品,讨论了他们的利弊,并提出了一些潜在的方向以进行未来的改进。
translated by 谷歌翻译
大多数深度学习模型的诊断性能受到模型架构及其普遍参数的影响很大。模型选择方法中的主要挑战是建筑优化器和模型评估策略的设计。在本文中,我们提出了一种进化深神经网络的新颖框架,它使用政策梯度来指导DNN架构的演变实现最大诊断准确性。我们制定了一个基于策略梯度的控制器,它会生成一个动作,以在每一代采样新模型架构。获得的最佳健身用作更新策略参数的奖励。此外,所获得的最佳模型被转移到NSGA-II进化框架中的快速模型评估的下一代。因此,该算法获得了快速非主导排序的好处以及快速模型评估。拟议框架的有效性已在三个数据集中验证:空气压缩机数据集,案例西部储备大学数据集和戴克邦大学数据集。
translated by 谷歌翻译
深度神经网络中的建筑进步导致了跨越一系列计算机视觉任务的巨大飞跃。神经建筑搜索(NAS)并没有依靠人类的专业知识,而是成为自动化建筑设计的有前途的途径。尽管图像分类的最新成就提出了机会,但NAS的承诺尚未对更具挑战性的语义细分任务进行彻底评估。将NAS应用于语义分割的主要挑战来自两个方面:(i)要处理的高分辨率图像; (ii)针对自动驾驶等应用的实时推理速度(即实时语义细分)的其他要求。为了应对此类挑战,我们在本文中提出了一种替代辅助的多目标方法。通过一系列自定义预测模型,我们的方法有效地将原始的NAS任务转换为普通的多目标优化问题。然后是用于填充选择的层次预筛选标准,我们的方法逐渐实现了一组有效的体系结构在细分精度和推理速度之间进行交易。对三个基准数据集的经验评估以及使用华为地图集200 dk的应用程序的实证评估表明,我们的方法可以识别架构明显优于人类专家手动设计和通过其他NAS方法自动设计的现有最先进的体系结构。
translated by 谷歌翻译
神经网络的结构设计对于深度学习的成功至关重要。尽管大多数先前在进化学习方面的工作旨在直接搜索网络的结构,但在另一个有希望的轨道频道修剪中,几乎没有尝试过,最近在设计有效的深度学习模型方面取得了重大进展。实际上,先前的修剪方法采用人造修剪功能来评估渠道对渠道修剪的重要性,这需要域知识,并且可以是最佳的。为此,我们开创了使用遗传编程(GP)自动发现强度修剪指标的。具体而言,我们制作了一个新颖的设计空间来表达高质量和可转移的修剪功能,从而确保了端到端的演化过程,在该过程中,进化功能不需要手动修改以使其在演变后的传递性。与先前的方法不同,我们的方法可以提供紧凑的修剪网络,以提供有效的推理和新颖的封闭形式的修剪指标,这些指标在数学上可以解释,因此可以推广到不同的修剪任务。尽管演变是在小型数据集上进行的,但我们的功能在应用于更具挑战性的数据集时显示出令人鼓舞的结果,与演化过程中使用的功能不同。例如,在ILSVRC-2012上,进化的函数可获得最新的修剪结果。
translated by 谷歌翻译
在本文中,我们开发了损失功能学习的新兴主题,该主题旨在学习损失功能,从而显着提高在其下方训练的模型的性能。具体而言,我们提出了一个新的元学习框架,用于通过混合神经符号搜索方法来学习模型 - 不足的损失函数。该框架首先使用基于进化的方法来搜索原始数学操作的空间,以找到一组符号损耗函数。其次,随后通过基于端梯度的训练程序对学习的损失功能集进行了参数化和优化。拟议框架的多功能性在经验上得到了各种监督的学习任务的经验验证。结果表明,通过新提出的方法发现的元学习损失函数在各种神经网络体系结构和数据集上都超过了交叉渗透丢失和最新的损失函数学习方法。
translated by 谷歌翻译
旨在自动进行工程增强政策的自动数据扩展最近引起了不断增长的研究兴趣。许多以前的自动启发方法通过评估测试时间增强性能来评估策略,利用了密度匹配策略。在本文中,我们从理论上和经验上证明了火车和小规模医学图像数据集的验证集之间的不一致,称为内域采样偏差。接下来,我们证明了域中采样偏置可能导致密度匹配的效率低下。为了解决这个问题,提出了一种改进的增强搜索策略,称为增强密度匹配,是通过从先前的培训分布中随机采样策略提出的。此外,提出了有效的自动机器学习(AUTOML)算法,通过统一数据增强和神经体系结构的搜索来提出。实验结果表明,所提出的方法优于MedMnist的最先进方法,MedMnist是一种开拓性的基准测试,旨在在医学图像分析中进行自动。
translated by 谷歌翻译
Transferring the knowledge learned from large scale datasets (e.g., ImageNet) via fine-tuning offers an effective solution for domain-specific fine-grained visual categorization (FGVC) tasks (e.g., recognizing bird species or car make & model). In such scenarios, data annotation often calls for specialized domain knowledge and thus is difficult to scale. In this work, we first tackle a problem in large scale FGVC. Our method won first place in iNaturalist 2017 large scale species classification challenge. Central to the success of our approach is a training scheme that uses higher image resolution and deals with the long-tailed distribution of training data. Next, we study transfer learning via fine-tuning from large scale datasets to small scale, domainspecific FGVC datasets. We propose a measure to estimate domain similarity via Earth Mover's Distance and demonstrate that transfer learning benefits from pre-training on a source domain that is similar to the target domain by this measure. Our proposed transfer learning outperforms Im-ageNet pre-training and obtains state-of-the-art results on multiple commonly used FGVC datasets.
translated by 谷歌翻译