当在涉及强大域移动的现实情况下应用时,可以推广到看不见的域的机器学习模型至关重要。我们解决了具有挑战性的域概括(DG)问题,其中在一组源域上训练的模型预计将在看不见的域中很好地概括,而无需接触其数据。 DG的主要挑战是,从源域中学到的功能不一定存在于看不见的目标域中,从而导致性能恶化。我们假设学习一组更丰富的功能对于改善向更广泛的未知域的转移至关重要。因此,我们提出了哥伦布,该方法通过对数据的最相关输入和多级表示的有针对性损坏来强制实施新功能发现。我们进行了广泛的经验评估,以证明所提出的方法的有效性,该方法通过在域床框架中的多个DG基准数据集上优于18个DG算法来实现新的最新结果。
translated by 谷歌翻译
当部署和培训之间存在分配变化时,深层神经网络的性能恶化严重。域的概括(DG)旨在通过仅依靠一组源域来安全地传输模型以看不见目标域。尽管已经提出了各种DG方法,但最近的一项名为Domainbed的研究表明,其中大多数没有超过简单的经验风险最小化(ERM)。为此,我们提出了一个通用框架,该框架与现有的DG算法是正交的,并且可以始终如一地提高其性能。与以前的DG作品不同的是,在静态源模型上有希望成为通用的DG,我们提出的ADAODM会在测试时间适应不同目标域的源模型。具体而言,我们在共享域形式的特征提取器上创建多个域特异性分类器。特征提取器和分类器以对抗性方式进行了训练,其中特征提取器将输入样品嵌入到域不变的空间中,并且多个分类器捕获了每个分类器与特定源域有关的独特决策边界。在测试过程中,可以通过利用源分类器之间的预测分歧来有效地衡量目标和源域之间的分布差异。通过微调源模型以最大程度地减少测试时间的分歧,目标域特征与不变特征空间很好地对齐。我们验证了两种流行的DG方法,即ERM和Coral,以及四个DG基准,即VLCS,PACS,OfficeHome和TerrainCognita。结果表明,ADAODM稳定地提高了对看不见的域的概括能力,并实现了最先进的性能。
translated by 谷歌翻译
域泛化(DG)方法旨在开发概括到测试分布与训练数据不同的设置的模型。在本文中,我们专注于多源零拍DG的挑战性问题,其中来自多个源域的标记训练数据可用,但无法从目标域中访问数据。虽然这个问题已成为研究的重要话题,但令人惊讶的是,将所有源数据汇集在一起​​和培训单个分类器的简单解决方案在标准基准中具有竞争力。更重要的是,即使在不同域中明确地优化不变性的复杂方法也不一定提供对ERM的非微不足道的增益。在本文中,我们首次研究了预先指定的域标签和泛化性能之间的重要链接。使用动机案例研究和分布稳健优化算法的新变种,我们首先演示了如何推断的自定义域组可以通过数据集的原始域标签来实现一致的改进。随后,我们介绍了一种用于多域泛化,Muldens的一般方法,它使用基于ERM的深度合并骨干,并通过元优化算法执行隐式域重标。使用对多个标准基准测试的经验研究,我们表明Muldens不需要定制增强策略或特定于数据集的培训过程,始终如一地优于ERM,通过显着的边距,即使在比较时也会产生最先进的泛化性能对于利用域标签的现有方法。
translated by 谷歌翻译
在现实生活中,机器学习模型经常面临培训和测试域之间存在数据分布的变化的情景。当目标是对不同于在培训中看到的分布的预测,我们会产生域泛化问题。解决此问题的方法使用来自多个源域的数据来学习模型,然后将此模型应用于未经调整的目标域。我们的假设是,当用多个域训练时,每个迷你批处理中的冲突梯度包含特定于与其他域的各个域特定的信息,包括测试域。如果保持不受影响,这种分歧可能会降低泛化性能。在这项工作中,我们在域移情中出现的突出梯度,并根据梯度手术制定新的渐变协议策略,以减轻其效果。我们在具有三个多域数据集中的图像分类任务中验证了我们的方法,显示了提高域移位情景中深入学习模型的泛化能力的拟议协议策略的价值。
translated by 谷歌翻译
我们关注模型概括中最坏的情况,因为一个模型旨在在许多看不见的域上表现良好,而只有一个单个域可供训练。我们提出基于元学习的对抗领域的增强,以解决此范围泛化问题。关键思想是利用对抗性训练来创建“虚构的”但“具有挑战性”的人群,模型可以从中学会通过理论保证进行概括。为了促进快速和理想的域增强,我们将模型训练施加在元学习方案中,并使用Wasserstein自动编码器放宽广泛使用的最坏情况的约束。我们通过整合有效域概括的不确定性定量来进一步改善我们的方法。在多个基准数据集上进行的广泛实验表明其在解决单个领域概括方面的出色性能。
translated by 谷歌翻译
减少源和目标域之间的表示形式差异是最大化模型概括的关键组件。在这项工作中,我们倡导利用自然语言监督域的概括任务。我们将两个模块介绍给地面视觉表示,其中包含人类典型推理的文本:(1)视觉和文本关节嵌入器以及(2)文本解释发生器。前者学习图像文本的关节嵌入空间,我们可以将高级类别歧视性信息接地到模型中。后者利用了一个可解释的模型,并生成了解释,证明其决定背后的理由是合理的。据我们所知,这是为域泛化任务利用视觉和语言跨模式方法的第一项工作。我们使用新创建的CUB-DG基准数据集进行的实验表明,可以成功地将跨模式监督用于接地域不变的视觉表示并改善模型的概括。此外,在大规模域基准测试中,我们提出的方法可实现最先进的结果,并在五个多域数据集的平均性能中排名第一。数据集和代码可在https://github.com/mswzeus/gvrt上找到。
translated by 谷歌翻译
对分布(OOD)数据的概括是人类自然的能力,但对于机器而言挑战。这是因为大多数学习算法强烈依赖于i.i.d.〜对源/目标数据的假设,这在域转移导致的实践中通常会违反。域的概括(DG)旨在通过仅使用源数据进行模型学习来实现OOD的概括。在过去的十年中,DG的研究取得了长足的进步,导致了广泛的方法论,例如,基于域的一致性,元学习,数据增强或合奏学习的方法,仅举几例;还在各个应用领域进行了研究,包括计算机视觉,语音识别,自然语言处理,医学成像和强化学习。在本文中,首次提供了DG中的全面文献综述,以总结过去十年来的发展。具体而言,我们首先通过正式定义DG并将其与其他相关领域(如域适应和转移学习)联系起来来涵盖背景。然后,我们对现有方法和理论进行了彻底的审查。最后,我们通过有关未来研究方向的见解和讨论来总结这项调查。
translated by 谷歌翻译
域的概括方法旨在学习使用有限数量的源域,在训练过程中无需访问目标域样本的数据,以学习强大的域移动模型。用于域概括的流行域对齐方法寻求通过最大程度地降低所有域的特征分布之间的差异来提取域不变特征,从而无视域间关系。在本文中,我们提出了一种新颖的表示学习方法,该方法有选择地强制估计密切相关的源域之间的预测一致性。具体而言,我们假设域共享不同的类信息表示形式,因此,我们仅适用于所有可能导致负转移的域,而是正规化与密切相关域之间的差异。我们将我们的方法应用于时间序列分类任务,并在三个公共现实世界数据集上进行全面的实验。与最先进的方法相比,在准确性和模型校准方面,我们的方法比基线大大改善了基线,并取得更好或竞争性的性能。
translated by 谷歌翻译
通过在多个观察到的源极域上培训模型,域概括旨在概括到无需进一步培训的任意看不见的目标领域。现有的作品主要专注于学习域不变的功能,以提高泛化能力。然而,由于在训练期间不可用目标域,因此前面的方法不可避免地遭受源极域中的过度。为了解决这个问题,我们开发了一个有效的基于辍学的框架,可以扩大模型的注意力,这可以有效地减轻过度的问题。特别地,与典型的辍学方案不同,通常在固定层上进行丢失,首先,我们随机选择一层,然后我们随机选择其通道以进行丢弃。此外,我们利用进步方案增加训练期间辍学的比率,这可以逐步提高培训模型的难度,以增强模型的稳健性。此外,为了进一步缓解过度拟合问题的影响,我们利用了在图像级和特征级别的增强方案来产生强大的基线模型。我们对多个基准数据集进行广泛的实验,该数据集显示了我们的方法可以优于最先进的方法。
translated by 谷歌翻译
最近,已经提出了几种领域的概括(DG)方法,表现出令人鼓舞的性能,但是,几乎所有的都基于卷积神经网络(CNN)。研究视觉变压器(VIT)的DG性能(VIT)几乎没有进展,这挑战了CNN在标准基准测试基准上的至高无上,通常是基于I.I.D假设。这使VITS的现实部署令人怀疑。在本文中,我们试图探索解决DG问题的VIT。与CNN类似,VIT在分发场景中也挣扎,主要的罪魁祸首过于适合来源域。受VIT的模块化体系结构的启发,我们提出了一种简单的DG方法,用于VIT,以VIT的自我验证。它通过策划中间变压器块的非零熵监管信号来减少输入输出映射问题的学习来减少源域的过度拟合。此外,它不会引入任何新参数,并且可以无缝地插入不同VIT的模块化组成中。我们在五个具有挑战性的数据集中以不同的DG基准和各种VIT骨架表现出显着的性能提高。此外,我们报告了针对最近最新的DG方法的有利性能。我们的代码以及预培训的模型可在以下网址公开获取:https://github.com/maryam089/sdvit
translated by 谷歌翻译
现实世界中的数据通常显示出不平衡的标签分布。有关数据不平衡的现有研究集中在单域设置上,即样本来自相同的数据分布。但是,自然数据可以起源于不同的领域,在一个领域中的少数族裔可以从其他域中具有丰富的实例。我们正式化了多域长尾识别(MDLT)的任务,该任务从多域不平衡数据中学习,解决了跨域的标签不平衡,域移动和不同标签分布,并将其推广到所有域级对。我们首先开发了域类的可传递性图,并表明这种可传递性决定了MDLT中学习的成功。然后,我们提出了Boda,这是一种理论上的学习策略,可以跟踪可转移性统计的上限,并确保跨域级分布之间的平衡对齐和校准。我们策划了基于广泛使用的多域数据集的五个MDLT基准测试,并将BODA与跨越不同学习策略的二十个算法进行比较。广泛而严格的实验验证了BODA的出色性能。此外,作为副产品,Boda建立了有关域泛化基准测试的新的最新最先进,强调了解决跨域数据不平衡的重要性,这对于改善概括至看不见的域可能至关重要。代码和数据可在以下网址获得:https://github.com/yyzharry/multi-domain-mmbalance。
translated by 谷歌翻译
为了解决培训和测试数据之间的分布变化,域的概括(DG)利用多个源域来学习一个概括地看不见域的模型。但是,现有的DG方法通常遭受过度适应源域的影响,部分原因是特征空间中预期区域的覆盖率有限。在此激励的情况下,我们建议与数据插值和外推进行混合,以涵盖潜在的看不见区域。为了防止不受约束的外推的有害影响,我们仔细设计了一种策略来生成实例权重,名为Flatents-Awarnement-Awarnement-Awarnement-Awarness-Angients-Awments-Altents-Altents-Alignness-Actient-Actient-Actient-Actient-Actient-Actient-natments-Actient-Actient-Actient-natments-naterment-Actient-naterment-naterments-awite渐变的混音(FGMIX)。该政策采用基于梯度的相似性,将更大的权重分配给携带更多不变信息的实例,并了解相似性的功能,以提高最小值以更好地概括。在域基准测试中,我们验证了FGMIX各种设计的功效,并证明了其优于其他DG算法。
translated by 谷歌翻译
The goal of domain generalization algorithms is to predict well on distributions different from those seen during training. While a myriad of domain generalization algorithms exist, inconsistencies in experimental conditions-datasets, architectures, and model selection criteria-render fair and realistic comparisons difficult. In this paper, we are interested in understanding how useful domain generalization algorithms are in realistic settings. As a first step, we realize that model selection is non-trivial for domain generalization tasks. Contrary to prior work, we argue that domain generalization algorithms without a model selection strategy should be regarded as incomplete. Next, we implement DOMAINBED, a testbed for domain generalization including seven multi-domain datasets, nine baseline algorithms, and three model selection criteria. We conduct extensive experiments using DO-MAINBED and find that, when carefully implemented, empirical risk minimization shows state-of-the-art performance across all datasets. Looking forward, we hope that the release of DOMAINBED, along with contributions from fellow researchers, will streamline reproducible and rigorous research in domain generalization. * Alphabetical order, equal contribution.Preprint. Under review.
translated by 谷歌翻译
大多数机器学习算法的基本假设是培训和测试数据是从相同的底层分布中汲取的。然而,在几乎所有实际应用中违反了这种假设:由于不断变化的时间相关,非典型最终用户或其他因素,机器学习系统经常测试。在这项工作中,我们考虑域泛化的问题设置,其中训练数据被构造成域,并且可能有多个测试时间偏移,对应于新域或域分布。大多数事先方法旨在学习在所有域上执行良好的单一强大模型或不变的功能空间。相比之下,我们的目标是使用未标记的测试点学习适应域转移到域移的模型。我们的主要贡献是介绍自适应风险最小化(ARM)的框架,其中模型被直接优化,以便通过学习来转移以适应培训域来改编。与稳健性,不变性和适应性的先前方法相比,ARM方法提供了在表现域移位的多个图像分类问题上的性能增益为1-4%的测试精度。
translated by 谷歌翻译
学习域不变的表示已成为域适应/概括的最受欢迎的方法之一。在本文中,我们表明不变的表示可能不足以保证良好的概括,在考虑标签函数转移的情况下。受到这一点的启发,我们首先在经验风险上获得了新的概括上限,该概括风险明确考虑了标签函数移动。然后,我们提出了特定领域的风险最小化(DRM),该风险最小化(DRM)可以分别对不同域的分布移动进行建模,并为目标域选择最合适的域。对四个流行的域概括数据集(CMNIST,PACS,VLCS和域)进行了广泛的实验,证明了所提出的DRM对域泛化的有效性,具有以下优点:1)它的表现明显超过了竞争性盆地的表现; 2)与香草经验风险最小化(ERM)相比,所有训练领域都可以在所有训练领域中具有可比性或优越的精度; 3)在培训期间,它仍然非常简单和高效,4)与不变的学习方法是互补的。
translated by 谷歌翻译
分销转移(DS)是一个常见的问题,可恶化学习机器的性能。为了克服这个问题,我们假设现实世界的分布是由基本分布组成的,这些分布在不同域之间保持不变。我们将其称为不变的基本分布(即)假设。因此,这种不变性使知识转移到看不见的域。为了利用该假设在域概括(DG)中,我们开发了一个由门域单位(GDU)组成的模块化神经网络层。每个GDU都学会了单个基本领域的嵌入,使我们能够在训练过程中编码域相似性。在推断期间,GDU在观察和每个相应的基本分布之间进行了计算相似性,然后将其用于形成学习机的加权集合。由于我们的层是经过反向传播的训练,因此可以轻松地集成到现有的深度学习框架中。我们对Digits5,ECG,CamelyOn17,IwildCam和FMOW的评估显示出对训练的目标域的性能有显着改善,而无需从目标域访问数据。这一发现支持了即现实世界数据分布中的假设。
translated by 谷歌翻译
为了将训练有素的模型直接概括为看不见的目标域,域概括(DG)是一种新提出的学习范式,引起了很大的关注。以前的DG模型通常需要在训练过程中观察到的源域中的足够数量的带注释的样品。在本文中,我们放宽了有关完全注释的要求,并研究了半监督域的概括(SSDG),在训练过程中,只有一个源域与其他完全未标记的域一起完全注释。由于要解决观察到的源域之间的域间隙和预测看不见的目标域之间的挑战,我们提出了一个通过关节域吸引的标签和双分类器的新型深框架,以产生高质量的伪标记。具体来说,为了预测域移位下的准确伪标记,开发了一个域吸引的伪标记模块。此外,考虑到概括和伪标记之间的目标不一致:前者防止在所有源域上过度拟合,而后者可能过分适合未标记的源域,以高精度,我们采用双分类器来独立执行伪标记和域名,并在训练过程中执行伪造域通用化。 。当为未标记的源域生成准确的伪标记时,将域混合操作应用于标记和未标记域之间的新域,这对于提高模型的通用能力是有益的。公开可用的DG基准数据集的广泛结果显示了我们提出的SSDG方法的功效。
translated by 谷歌翻译
机器学习系统通常假设训练和测试分布是相同的。为此,关键要求是开发可以概括到未经看不见的分布的模型。领域泛化(DG),即分销概括,近年来引起了越来越令人利益。域概括处理了一个具有挑战性的设置,其中给出了一个或几个不同但相关域,并且目标是学习可以概括到看不见的测试域的模型。多年来,域概括地区已经取得了巨大进展。本文提出了对该地区最近进步的首次审查。首先,我们提供了域泛化的正式定义,并讨论了几个相关领域。然后,我们彻底审查了与域泛化相关的理论,并仔细分析了泛化背后的理论。我们将最近的算法分为三个类:数据操作,表示学习和学习策略,并为每个类别详细介绍几种流行的算法。第三,我们介绍常用的数据集,应用程序和我们的开放源代码库进行公平评估。最后,我们总结了现有文学,并为未来提供了一些潜在的研究主题。
translated by 谷歌翻译
域的概括(DG)研究了深度学习模型推广到训练分布的能力。在过去的十年中,文献已经大量填充了一系列培训方法,这些方法声称获得了更抽象和强大的数据表示以应对域的转移。最近的研究为DG提供了可再现的基准,指出了天真的经验风险最小化(ERM)对现有算法的有效性。然而,研究人员坚持使用相同过时的特征提取器,并且尚未注意不同骨干的影响。在本文中,我们从骨干开始,提出了对其内在概括能力的全面分析,迄今为止,研究界忽略了。我们评估了各种特征提取器,从标准残差解决方案到基于变压器的架构,发现大规模单域分类精度和DG功能之间的线性相关性。我们广泛的实验表明,通过采用竞争性骨干与有效的数据增强结合使用,普通ERM的表现优于最近的DG解决方案,并实现了最先进的准确性。此外,我们的其他定性研究表明,新型骨架提供了与同类样本更相似的表示,从而将特征空间中的不同域分开。这种概括能力的增强功能使DG算法的边缘空间为调查问题,提出了一个新的范式,将骨干放在聚光灯下,并鼓励在其顶部开发一致的算法。
translated by 谷歌翻译
最近证明,接受SGD训练的神经网络优先依赖线性预测的特征,并且可以忽略复杂的,同样可预测的功能。这种简单性偏见可以解释他们缺乏分布(OOD)的鲁棒性。学习任务越复杂,统计工件(即选择偏见,虚假相关性)的可能性就越大比学习的机制更简单。我们证明可以减轻简单性偏差并改善了OOD的概括。我们使用对其输入梯度对齐的惩罚来训练一组类似的模型以不同的方式拟合数据。我们从理论和经验上展示了这会导致学习更复杂的预测模式的学习。 OOD的概括从根本上需要超出I.I.D.示例,例如多个培训环境,反事实示例或其他侧面信息。我们的方法表明,我们可以将此要求推迟到独立的模型选择阶段。我们获得了SOTA的结果,可以在视觉域偏置数据和概括方面进行视觉识别。该方法 - 第一个逃避简单性偏见的方法 - 突出了需要更好地理解和控制深度学习中的归纳偏见。
translated by 谷歌翻译