持续学习旨在从一系列任务中学习,能够同时记住新任务和旧任务。尽管提出了许多用于单级分类的方法,但在连续场景中,多标签分类仍然是一个具有挑战性的问题。我们第一次在域增量学习方案中研究多标签分类。此外,我们提出了一种有效的方法,该方法在任务数量方面具有对数复杂性,并且也可以在类增量学习方案中应用。我们在包装行业的现实世界多标签警报预测问题上验证了我们的方法。为了重现性,公开可用的数据集和用于实验的代码。
translated by 谷歌翻译
Anomaly Detection is a relevant problem that arises in numerous real-world applications, especially when dealing with images. However, there has been little research for this task in the Continual Learning setting. In this work, we introduce a novel approach called SCALE (SCALing is Enough) to perform Compressed Replay in a framework for Anomaly Detection in Continual Learning setting. The proposed technique scales and compresses the original images using a Super Resolution model which, to the best of our knowledge, is studied for the first time in the Continual Learning setting. SCALE can achieve a high level of compression while maintaining a high level of image reconstruction quality. In conjunction with other Anomaly Detection approaches, it can achieve optimal results. To validate the proposed approach, we use a real-world dataset of images with pixel-based anomalies, with the scope to provide a reliable benchmark for Anomaly Detection in the context of Continual Learning, serving as a foundation for further advancements in the field.
translated by 谷歌翻译
在线持续学习,尤其是在任务身份和任务边界不可用时,是一个挑战性的持续学习设置。一种代表性的在线持续学习方法是基于重播的方法,其中保留称为内存的重播缓冲区,以保留过去样本的一小部分,以克服灾难性的遗忘。当通过在线持续学习来解决时,大多数现有的基于重播的方法都集中在单标签问题上,其中数据流中的每个样本只有一个标签。但是,在在线持续学习环境中,多标签问题也可能发生,在线持续学习环境中,每个样本可能具有多个标签。在使用多标签样本的在线设置中,数据流中的类分布通常是高度不平衡的,并且在内存中控制类别的分配是一项挑战课程。但是,内存中的课程分布对于基于重播的内存至关重要,以获得良好的性能,尤其是当数据流中的类分布高度不平衡时。在本文中,我们提出了一种简单但有效的方法,称为多标签在线持续学习,称为内存中的班级分布(OCDM)。 OCDM将内存更新机制制定为优化问题,并通过解决此问题来更新内存。在两个广泛使用的多标签数据集上的实验表明,OCDM可以很好地控制内存中的类分布,并且可以胜过其他最先进的方法。
translated by 谷歌翻译
在线持续学习是一个充满挑战的学习方案,模型必须从非平稳的数据流中学习,其中每个样本只能看到一次。主要的挑战是在避免灾难性遗忘的同时逐步学习,即在从新数据中学习时忘记先前获得的知识的问题。在这种情况下,一种流行的解决方案是使用较小的内存来保留旧数据并随着时间的推移进行排练。不幸的是,由于内存尺寸有限,随着时间的推移,内存的质量会恶化。在本文中,我们提出了OLCGM,这是一种基于新型重放的持续学习策略,该策略使用知识冷凝技术连续压缩记忆并更好地利用其有限的尺寸。样品冷凝步骤压缩了旧样品,而不是像其他重播策略那样将其删除。结果,实验表明,每当与数据的复杂性相比,每当记忆预算受到限制,OLCGM都会提高与最先进的重播策略相比的最终准确性。
translated by 谷歌翻译
恶意软件(恶意软件)分类为持续学习(CL)制度提供了独特的挑战,这是由于每天收到的新样本的数量以及恶意软件的发展以利用新漏洞。在典型的一天中,防病毒供应商将获得数十万个独特的软件,包括恶意和良性,并且在恶意软件分类器的一生中,有超过十亿个样品很容易积累。鉴于问题的规模,使用持续学习技术的顺序培训可以在减少培训和存储开销方面提供可观的好处。但是,迄今为止,还没有对CL应用于恶意软件分类任务的探索。在本文中,我们研究了11种应用于三个恶意软件任务的CL技术,涵盖了常见的增量学习方案,包括任务,类和域增量学习(IL)。具体而言,使用两个现实的大规模恶意软件数据集,我们评估了CL方法在二进制恶意软件分类(domain-il)和多类恶意软件家庭分类(Task-IL和类IL)任务上的性能。令我们惊讶的是,在几乎所有情况下,持续的学习方法显着不足以使训练数据的幼稚关节重播 - 在某些情况下,将精度降低了70个百分点以上。与关节重播相比,有选择性重播20%的存储数据的一种简单方法可以实现更好的性能,占训练时间的50%。最后,我们讨论了CL技术表现出乎意料差的潜在原因,希望它激发进一步研究在恶意软件分类域中更有效的技术。
translated by 谷歌翻译
Continual Learning (CL) is a field dedicated to devise algorithms able to achieve lifelong learning. Overcoming the knowledge disruption of previously acquired concepts, a drawback affecting deep learning models and that goes by the name of catastrophic forgetting, is a hard challenge. Currently, deep learning methods can attain impressive results when the data modeled does not undergo a considerable distributional shift in subsequent learning sessions, but whenever we expose such systems to this incremental setting, performance drop very quickly. Overcoming this limitation is fundamental as it would allow us to build truly intelligent systems showing stability and plasticity. Secondly, it would allow us to overcome the onerous limitation of retraining these architectures from scratch with the new updated data. In this thesis, we tackle the problem from multiple directions. In a first study, we show that in rehearsal-based techniques (systems that use memory buffer), the quantity of data stored in the rehearsal buffer is a more important factor over the quality of the data. Secondly, we propose one of the early works of incremental learning on ViTs architectures, comparing functional, weight and attention regularization approaches and propose effective novel a novel asymmetric loss. At the end we conclude with a study on pretraining and how it affects the performance in Continual Learning, raising some questions about the effective progression of the field. We then conclude with some future directions and closing remarks.
translated by 谷歌翻译
物联网系统中的微型机器学习(Tinyml)利用MCU作为数据处理的边缘设备。但是,传统的Tinyml方法只能执行推理,仅限于静态环境或类。真实情况通常在动态环境中起作用,从而将原始神经模型不再合适的上下文漂移。因此,预训练的模型降低了其一生中的准确性和可靠性,因为记录的数据缓慢变为过时或出现新模式。连续学习策略通过对参数进行运行时进行微调维护模型。本文比较了两个实际应用中的四种最新算法:i)基于加速度计数据的手势识别和ii)图像分类。我们的结果证实了这些系统的可靠性以及将它们部署到微小的MCUS中的可行性,相对于无约束计算平台的原始模型的精确度下降了几个百分点。
translated by 谷歌翻译
Artificial neural networks thrive in solving the classification problem for a particular rigid task, acquiring knowledge through generalized learning behaviour from a distinct training phase. The resulting network resembles a static entity of knowledge, with endeavours to extend this knowledge without targeting the original task resulting in a catastrophic forgetting. Continual learning shifts this paradigm towards networks that can continually accumulate knowledge over different tasks without the need to retrain from scratch. We focus on task incremental classification, where tasks arrive sequentially and are delineated by clear boundaries. Our main contributions concern (1) a taxonomy and extensive overview of the state-of-the-art; (2) a novel framework to continually determine the stability-plasticity trade-off of the continual learner; (3) a comprehensive experimental comparison of 11 state-of-the-art continual learning methods and 4 baselines. We empirically scrutinize method strengths and weaknesses on three benchmarks, considering Tiny Imagenet and large-scale unbalanced iNaturalist and a sequence of recognition datasets. We study the influence of model capacity, weight decay and dropout regularization, and the order in which the tasks are presented, and qualitatively compare methods in terms of required memory, computation time and storage.
translated by 谷歌翻译
We motivate Energy-Based Models (EBMs) as a promising model class for continual learning problems. Instead of tackling continual learning via the use of external memory, growing models, or regularization, EBMs change the underlying training objective to cause less interference with previously learned information. Our proposed version of EBMs for continual learning is simple, efficient, and outperforms baseline methods by a large margin on several benchmarks. Moreover, our proposed contrastive divergence-based training objective can be combined with other continual learning methods, resulting in substantial boosts in their performance. We further show that EBMs are adaptable to a more general continual learning setting where the data distribution changes without the notion of explicitly delineated tasks. These observations point towards EBMs as a useful building block for future continual learning methods.
translated by 谷歌翻译
持续的学习方法通​​过试图解决灾难性遗忘来帮助深度神经网络模型适应和逐步学习。但是,无论这些现有方法是否传统上应用于基于图像的任务,都具有与移动或嵌入式传感系统生成的顺序时间序列数据相同的疗效仍然是一个未解决的问题。为了解决这一空白,我们进行了第一项全面的经验研究,该研究量化了三个主要的持续学习方案的性能(即,在三个移动和嵌入式感应应用程序中的六个数据集中的三个主要的持续学习方案(即正规化,重播和重播)的性能。不同的学习复杂性。更具体地说,我们在Edge设备上实现了端到端连续学习框架。然后,我们研究了不同持续学习方法的性能,存储,计算成本和记忆足迹之间的普遍性,权衡。我们的发现表明,以示例性计划(例如ICARL)重播,即使在复杂的场景中,甚至在复杂的场景中都具有最佳的性能权衡,以牺牲一些存储空间(少数MB)来训练示例(1%至5%)。我们还首次证明,以有限的记忆预算进行连续学习,可行和实用。特别是,两种类型的移动设备和嵌入式设备的延迟表明,可以接受递增的学习时间(几秒钟-4分钟)和培训时间(1-75分钟),可以接受,因为嵌入式嵌入式时可能会在设备上进行培训设备正在充电,从而确保完整的数据隐私。最后,我们为希望将不断学习范式应用于移动传感任务的从业者提供了一些准则。
translated by 谷歌翻译
Concept drift primarily refers to an online supervised learning scenario when the relation between the input data and the target variable changes over time. Assuming a general knowledge of supervised learning in this paper we characterize adaptive learning process, categorize existing strategies for handling concept drift, overview the most representative, distinct and popular techniques and algorithms, discuss evaluation methodology of adaptive algorithms, and present a set of illustrative applications. The survey covers the different facets of concept drift in an integrated way to reflect on the existing scattered state-of-the-art. Thus, it aims at providing a comprehensive introduction to the concept drift adaptation for researchers, industry analysts and practitioners.
translated by 谷歌翻译
人类智慧的主食是以不断的方式获取知识的能力。在Stark对比度下,深网络忘记灾难性,而且为此原因,类增量连续学习促进方法的子字段逐步学习一系列任务,将顺序获得的知识混合成综合预测。这项工作旨在评估和克服我们以前提案黑暗体验重播(Der)的陷阱,这是一种简单有效的方法,将排练和知识蒸馏结合在一起。灵感来自于我们的思想不断重写过去的回忆和对未来的期望,我们赋予了我的能力,即我的能力来修改其重播记忆,以欢迎有关过去数据II的新信息II)为学习尚未公开的课程铺平了道路。我们表明,这些策略的应用导致了显着的改进;实际上,得到的方法 - 被称为扩展-DAR(X-DER) - 优于标准基准(如CiFar-100和MiniimAgeNet)的技术状态,并且这里引入了一个新颖的。为了更好地了解,我们进一步提供了广泛的消融研究,以证实并扩展了我们以前研究的结果(例如,在持续学习设置中知识蒸馏和漂流最小值的价值)。
translated by 谷歌翻译
人类的持续学习(CL)能力与稳定性与可塑性困境密切相关,描述了人类如何实现持续的学习能力和保存的学习信息。自发育以来,CL的概念始终存在于人工智能(AI)中。本文提出了对CL的全面审查。与之前的评论不同,主要关注CL中的灾难性遗忘现象,本文根据稳定性与可塑性机制的宏观视角来调查CL。类似于生物对应物,“智能”AI代理商应该是I)记住以前学到的信息(信息回流); ii)不断推断新信息(信息浏览:); iii)转移有用的信息(信息转移),以实现高级CL。根据分类学,评估度量,算法,应用以及一些打开问题。我们的主要贡献涉及I)从人工综合情报层面重新检查CL; ii)在CL主题提供详细和广泛的概述; iii)提出一些关于CL潜在发展的新颖思路。
translated by 谷歌翻译
已知应用于任务序列的标准梯度下降算法可在深层神经网络中产生灾难性遗忘。当对序列中的新任务进行培训时,该模型会在当前任务上更新其参数,从而忘记过去的知识。本文探讨了我们在有限环境中扩展任务数量的方案。这些方案由与重复数据的长期任务组成。我们表明,在这种情况下,随机梯度下降可以学习,进步并融合到根据现有文献需要持续学习算法的解决方案。换句话说,我们表明该模型在没有特定的记忆机制的情况下执行知识保留和积累。我们提出了一个新的实验框架,即Scole(缩放量表),以研究在潜在无限序列中的知识保留和算法的积累。为了探索此设置,我们对1,000个任务的序列进行了大量实验,以更好地了解这种新的设置家庭。我们还提出了对香草随机梯度下降的轻微修改,以促进这种情况下的持续学习。 SCOLE框架代表了对实用训练环境的良好模拟,并允许长序列研究收敛行为。我们的实验表明,在短方案上以前的结果不能总是推断为更长的场景。
translated by 谷歌翻译
Lack of performance when it comes to continual learning over non-stationary distributions of data remains a major challenge in scaling neural network learning to more human realistic settings. In this work we propose a new conceptualization of the continual learning problem in terms of a temporally symmetric trade-off between transfer and interference that can be optimized by enforcing gradient alignment across examples. We then propose a new algorithm, Meta-Experience Replay (MER), that directly exploits this view by combining experience replay with optimization based meta-learning. This method learns parameters that make interference based on future gradients less likely and transfer based on future gradients more likely. 1 We conduct experiments across continual lifelong supervised learning benchmarks and non-stationary reinforcement learning environments demonstrating that our approach consistently outperforms recently proposed baselines for continual learning. Our experiments show that the gap between the performance of MER and baseline algorithms grows both as the environment gets more non-stationary and as the fraction of the total experiences stored gets smaller.
translated by 谷歌翻译
卷积神经网络在分类方面表现出了显着的结果,但在即时学习新事物方面挣扎。我们提出了一种新颖的彩排方法,其中深度神经网络正在不断学习新的看不见的对象类别,而无需保存任何先前序列的数据。我们的方法称为召回,因为网络通过在培训新类别之前计算旧类别的逻辑来回忆类别。然后在培训期间使用这些,以避免更改旧类别。对于每个新序列,都会添加一个新的头部以适应新类别。为了减轻遗忘,我们提出了一种正规化策略,在该策略中我们用回归替换分类。此外,对于已知类别,我们提出了一个玛哈拉氏症损失,其中包括差异,以说明已知类别和未知类别之间的密度变化。最后,我们提供了一个用于持续学习的新颖数据集,尤其是适用于移动机器人(Hows-CL-25)上的对象识别的数据集,其中包括25个家庭对象类别的150,795个合成图像。我们的方法回忆起优于Core50和ICIFAR-100上的艺术现状,并在HOWS-CL-25上取得了最佳性能。
translated by 谷歌翻译
当神经网络失去先前从不同分布的样本(即新任务)培训一组样本时,发生灾难性遗忘(CF)。现有方法在减轻CF方面取得了显着的结果,尤其是在称为任务增量学习的情况下。但是,这种情况是不现实的,并且已经完成了有限的工作以在更现实的情况下取得良好的结果。在本文中,我们提出了一种称为Centroid匹配的新型正则化方法,该方法受到元学习方法的启发,通过在神经网络产生的功能空间中操作来打击CF,在需要较小的记忆足迹的同时,取得了良好的结果。具体而言,该方法使用神经网络产生的特征向量直接对样品进行了分类,通过将这些向量与代表当前任务中的类或所有任务的质心匹配,直到该点。质心匹配速度比竞争基线更快,并且可以通过在过去的任务结束时保留模型产生的嵌入式空间之间的距离,并且可以利用它有效地减轻CF,而当前生产的距离则可以实现高精度的方法在所有任务上,在轻松场景上操作时,或不使用外部内存,或者将小型内存用于更现实的记忆。广泛的实验表明,匹配的质心在多个数据集和方案上取得了准确的提高。
translated by 谷歌翻译
在不同的持续学习场景中可以经验经验评估模型的能力。每种情况都定义了限制和学习环境的机会。在这里,我们挑战了持续学习文学中的当前趋势,主要是在类渐进式场景上进行实验,其中一项经验中的课程从未被重新审视。我们对这种环境的过度注重可能是对持续学习的未来研究来限制,因为类增量场景人为地加剧了灾难性的遗忘,以牺牲其他重要目标等于前向传递和计算效率。在许多现实世界环境中,实际上,重复先前遇到的概念自然地发生,有助于软化对先前知识的破坏。我们倡导更深入地研究替代持续学习场景,其中重复通过传入信息流中的设计集成。从已经现有的提案开始,我们描述了这种级别的级别与重复方案的优势可以提供更全面的持续学习模型的评估。
translated by 谷歌翻译
持续学习 - 从一系列学习经验中积累知识 - 是一个重要但充满挑战的问题。在此范式中,由于看到其他数据,该模型的先前遇到实例的性能可能会大大下降。在处理类不平衡数据时,忘记进一步加剧了。先前的工作提出了基于重播的方法,旨在通过智能存储未来重播的实例来减少遗忘。尽管类平衡储层抽样(CBRS)在处理不平衡数据方面已经成功,但尚未考虑类内的多样性,隐含地假设类的每个实例都同样有用。我们提出了不同的cbrs(D-CBRS),这是一种算法,使我们可以在存储内存中的实例时在类多样性中考虑。我们的结果表明,D-CBR的表现优于最先进的存储器管理在具有相当大的内部多样性的数据集上的持续学习算法。
translated by 谷歌翻译
机器学习的一个显着缺点是模型能够更快地解决新问题,而不会忘记获得的知识。为了更好地理解这个问题,已经出现了持续的学习来系统地调查学习协议,其中模型顺序地观察由一系列任务产生的样本。首先,我们提出了一种促进学习和遗忘之间进行权衡的最优性原则。我们从有界合理性的信息化学制定中获得了这一原则,并显示了与其他连续学习方法的联系。其次,基于这一原则,我们提出了一种神经网络层,用于持续学习,称为变分的专家(移动),缓解遗忘,同时使知识有益转移到新任务。我们对MNIST和CIFAR10数据集的变型的实验表明,与最先进的方法相比,移动层的竞争性能。
translated by 谷歌翻译