Unsupervised domain adaptation (UDA) has been highly successful in transferring knowledge acquired from a label-rich source domain to a label-scarce target domain. Open-set domain adaptation (ODA) and universal domain adaptation (UNDA) have been proposed as solutions to the problem concerning the presence of additional novel categories in the target domain. Existing ODA and UNDA approaches treat all novel categories as one unified unknown class and attempt to detect this unknown class during the training process. We find that domain variance leads to more significant view-noise in unsupervised data augmentation, affecting the further applications of contrastive learning~(CL), as well as the current closed-set classifier and open-set classifier causing the model to be overconfident in novel class discovery. To address the above two issues, we propose Soft-contrastive All-in-one Network~(SAN) for ODA and UNDA tasks. SAN includes a novel data-augmentation-based CL loss, which is used to improve the representational capability, and a more human-intuitive classifier, which is used to improve the new class discovery capability. The soft contrastive learning~(SCL) loss is used to weaken the adverse effects of the data-augmentation label noise problem, which is amplified in domain transfer. The All-in-One~(AIO) classifier overcomes the overconfidence problem of the current mainstream closed-set classifier and open-set classifier in a more human-intuitive way. The visualization results and ablation experiments demonstrate the importance of the two proposed innovations. Moreover, extensive experimental results on ODA and UNDA show that SAN has advantages over the existing state-of-the-art methods.
translated by 谷歌翻译
通用域的适应性(UNIDA)旨在将公共类的知识从源域转移到目标域,而无需对标签集的任何先验知识,这需要将未知样本与目标域中的已知样本区分开。就像传统的无监督域适应问题一样,由于偏见和歧视性较低的嵌入,两个域之间的错位也存在。最新方法提出了通过将目标样品与最近的邻居或原型聚类来完成域未对准的方法。但是,这样做是很危险的,因为我们对未知样本的分布没有任何先验知识,这些样本可以放大错位,尤其是当未知集很大的时候。同时,其他现有基于分类器的方法可以轻松地产生对未知样本的过度自信预测,因为在源域中有监督的目标导致整个模型偏向于目标域中的共同类别。因此,我们提出了一种新型的非参数未知样品检测方法,基于将原始特征空间中的样品映射到可靠的线性子空间中,这使数据点更稀疏,以减少未知样品和源样本之间的不对准。此外,与最近应用额外参数以改善未知样品分类的方法不同,本文通过未知的自适应保证金损失可以很好地平衡已知样品和未知样品的置信值,从而可以控制分类器学习的梯度在有监督的来源上的梯度更新样品取决于当前步骤中检测到的未知样品的置信度。最后,在四个公共数据集上的实验表明,我们的方法显着胜过现有的最新方法。
translated by 谷歌翻译
学习目标域中的未知样本(不存在于源类中)对于无监督域适应(UDA)相当重要。存在两个典型的UDA方案,即开放式和开放式集合,后者假定目标域中并非所有源类都显示在内。但是,大多数先前的方法都是为一个UDA场景而设计的,并且始终在其他UDA方案上表现差。此外,它们还需要在适应过程中标记的源数据,限制其在数据隐私敏感应用中的可用性。为了解决这些问题,本文提出了一种通用模型适应(UMAD)框架,其处理了UDA方案,而无需访问源数据,也不是关于域之间类别的类别的知识。具体而言,我们的目标是使用优雅设计的双头分类器来学习源模型,并将其提供给目标域。在适应期间,我们开发了一种信息丰富的一致性分数,以帮助区分从已知样品中的未知样本。为了在目标域中实现双边适应,我们进一步最大化了局部化的相互信息,以将已知的样本与源分类器对齐,并采用熵丢失,以便分别推动远离源分类边界的未知样本。开放式和开放式的UDA方案的实验表明,umad作为无需访问源数据的统一方法,展示与最先进的数据相关方法的可比性。
translated by 谷歌翻译
无监督的域适应(UDA)旨在将标记的源分布与未标记的目标分布对齐,以获取域不变预测模型。然而,众所周知的UDA方法的应用在半监督域适应(SSDA)方案中不完全概括,其中来自目标域的少数标记的样本可用。在本文中,我们提出了一种用于半监督域适应(CLDA)的简单对比学习框架,该框架试图在SSDA中弥合标记和未标记的目标分布与源极和未标记的目标分布之间的域间差距之间的域间隙。我们建议采用类明智的对比学学习来降低原始(输入图像)和强大增强的未标记目标图像之间的域间间隙和实例级对比度对准,以最小化域内差异。我们已经凭经验表明,这两个模块相互补充,以实现卓越的性能。在三个众所周知的域适应基准数据集中的实验即Domainnet,Office-Home和Office31展示了我们方法的有效性。 CLDA在所有上述数据集上实现最先进的结果。
translated by 谷歌翻译
Universal Domain Adaptation aims to transfer the knowledge between the datasets by handling two shifts: domain-shift and category-shift. The main challenge is correctly distinguishing the unknown target samples while adapting the distribution of known class knowledge from source to target. Most existing methods approach this problem by first training the target adapted known classifier and then relying on the single threshold to distinguish unknown target samples. However, this simple threshold-based approach prevents the model from considering the underlying complexities existing between the known and unknown samples in the high-dimensional feature space. In this paper, we propose a new approach in which we use two sets of feature points, namely dual Classifiers for Prototypes and Reciprocals (CPR). Our key idea is to associate each prototype with corresponding known class features while pushing the reciprocals apart from these prototypes to locate them in the potential unknown feature space. The target samples are then classified as unknown if they fall near any reciprocals at test time. To successfully train our framework, we collect the partial, confident target samples that are classified as known or unknown through on our proposed multi-criteria selection. We then additionally apply the entropy loss regularization to them. For further adaptation, we also apply standard consistency regularization that matches the predictions of two different views of the input to make more compact target feature space. We evaluate our proposal, CPR, on three standard benchmarks and achieve comparable or new state-of-the-art results. We also provide extensive ablation experiments to verify our main design choices in our framework.
translated by 谷歌翻译
最近的特征对比学习(FCL)在无监督的代表学习中表现出了有希望的表现。然而,对于近置表示学习,其中标记的数据和未标记数据属于相同的语义空间,FCL不能显示由于在优化期间不涉及类语义而无法占用的压倒性增益。因此,产生的特征不保证由来自标记数据中学到的类重量轻松归类,尽管它们是富有的信息。为了解决这个问题,我们在本文中提出了一种新颖的概率对比学习(PCL),这不仅产生了丰富的功能,而且还强制执行它们以分布在课堂上的原型。具体而言,我们建议在SoftMax之后使用输出概率来执行对比学习而不是FCL中提取的功能。显然,这种方法可以在优化期间利用类语义。此外,我们建议在传统的FCL中删除$ \ ell_ {2} $归一化,并直接使用$ \ ell_ {1} $ - 归一化对比学习的概率。我们提出的PCL简单有效。我们在三个近距离图像分类任务中进行广泛的实验,即无监督域适应,半监督学习和半监督域适应。多个数据集上的结果表明,我们的PCL可以一致地获得相当大的收益并实现所有三个任务的最先进的性能。
translated by 谷歌翻译
通用域的适应性(UDA)旨在将公共类的知识从源域转移到目标域,而无需对标签集的任何先验知识,这需要将未知样本与目标域中的已知样本区分开。最近的方法更喜欢增加已知类别中样本间亲和力,而它们忽略了未知样本与已知样本之间的样本间亲和力。本文表明,利用这种样本间亲和力可以显着提高UDA的性能,并提出基于IT的知识性UDA框架。首先,我们通过在源域中搜索其相邻样本来估计每个目标样本的可知性。然后,我们提出了一种适用于估计的可知性的自动阈值方案,以确定目标样本是未知还是已知。接下来,除了增加每个已知类别的样本间亲和力(如先前的方法)外,我们还根据估计的可知性设计新损失,以减少未知目标样本与已知目标样本之间的样本间亲和力。最后,在四个公共数据集上的实验表明,我们的方法显着胜过现有的最新方法。
translated by 谷歌翻译
无监督的域适应性(DA)中的主要挑战是减轻源域和目标域之间的域移动。先前的DA工作表明,可以使用借口任务来通过学习域不变表示来减轻此域的转移。但是,实际上,我们发现大多数现有的借口任务对其他已建立的技术无效。因此,我们从理论上分析了如何以及何时可以利用子公司借口任务来协助给定DA问题的目标任务并制定客观的子公司任务适用性标准。基于此标准,我们设计了一个新颖的贴纸干预过程和铸造贴纸分类的过程,作为监督的子公司DA问题,该问题与目标任务无监督的DA同时发生。我们的方法不仅改善了目标任务适应性能,而且还促进了面向隐私的无源DA,即没有并发源目标访问。标准Office-31,Office-Home,Domainnet和Visda基准的实验证明了我们对单源和多源无源DA的优势。我们的方法还补充了现有的无源作品,从而实现了领先的绩效。
translated by 谷歌翻译
无监督域适应(UDA)旨在将知识从相关但不同的良好标记的源域转移到新的未标记的目标域。大多数现有的UDA方法需要访问源数据,因此当数据保密而不相配在隐私问题时,不适用。本文旨在仅使用培训的分类模型来解决现实设置,而不是访问源数据。为了有效地利用适应源模型,我们提出了一种新颖的方法,称为源假设转移(拍摄),其通过将目标数据特征拟合到冻结源分类模块(表示分类假设)来学习目标域的特征提取模块。具体而言,拍摄挖掘出于特征提取模块的信息最大化和自我监督学习,以确保目标特征通过同一假设与看不见的源数据的特征隐式对齐。此外,我们提出了一种新的标签转移策略,它基于预测的置信度(标签信息),然后采用半监督学习来将目标数据分成两个分裂,然后提高目标域中的较为自信预测的准确性。如果通过拍摄获得预测,我们表示标记转移为拍摄++。关于两位数分类和对象识别任务的广泛实验表明,拍摄和射击++实现了与最先进的结果超越或相当的结果,展示了我们对各种视域适应问题的方法的有效性。代码可用于\ url {https://github.com/tim-learn/shot-plus}。
translated by 谷歌翻译
自我监督的学习(SSL)最近成为特征学习方法中的最爱。因此,它可以吸引域适应方法来考虑结合SSL。直觉是强制执行实例级别一致性,使得预测器在域中变得不变。但是,域适应制度中的大多数现有SSL方法通常被视为独立的辅助组件,使域自适应的签名无人看管。实际上,域间隙消失的最佳区域和SSL PERUSES的实例级别约束可能根本不一致。从这一点来看,我们向一个特定的范式的自我监督学习量身定制,用于域适应,即可转让的对比学习(TCL),这与SSL和所需的跨域转移性相一致地联系起来。我们发现对比学习本质上是一个合适的域适应候选者,因为它的实例不变性假设可以方便地促进由域适应任务青睐的跨域类级不变性。基于特定的记忆库结构和伪标签策略,TCL然后通过清洁和新的对比损失来惩罚源头和靶之间的跨域内域差异。免费午餐是由于纳入对比学习,TCL依赖于移动平均的关键编码器,自然地实现了用于目标数据的伪标签的暂停标签,这避免了无额外的成本。因此,TCL有效地减少了跨域间隙。通过对基准(Office-Home,Visda-2017,Diamet-Five,PACS和Domainnet)进行广泛的实验,用于单源和多源域适配任务,TCL已经证明了最先进的性能。
translated by 谷歌翻译
通用域适应性(UNIDA)是一种一般无监督的域适应设置,它解决了自适应中的域和标签变化。它的主要挑战在于如何在未共享或未知类中识别目标样本。以前的方法通常努力描绘样本“置信度”以及拒绝未知数的阈值,并使跨域共享类的特征分布对齐。但是,仍然很难预先指定“信心”标准和阈值,这些标准和阈值适应各种实际任务,并且对未知数的错误预测进一步导致了共享类中特征的错误对准。在本文中,我们提出了一种新的UNIDA方法,该方法具有分类器悖论(UACP)的自适应未知身份验证,考虑到具有矛盾预测的样品可能是未知的,属于源类别。在UACP中,一个复合分类器与两种类型的预测变量共同设计。也就是说,多类(MC)预测器将样品分类为多个源类之一,而二进制单VS-ALL(OVA)预测器进一步验证了MC预测器的预测。验证失败或悖论的样品被鉴定为未知数。此外,在输出空间中进行了隐式域对齐,而不是共享类别的特征对齐,使跨域的样本共享相同的决策边界,尽管特征差异都具有相同的决策边界。经验结果验证了开放式UDA和通用UDA设置下的UACP。
translated by 谷歌翻译
在本文中,我们将$ \ textit {开放设定识别} $与域移动一起研究,最终目标是实现$ \ textit {无源的通用域apation} $(sf-unda),以解决以下情况源和目标域之间存在域和类别变化。在SF-UNDA设置下,该模型在目标适应过程中无法再访问源数据,旨在解决数据隐私问题。我们提出了一种新颖的培训计划,以学习($ n $+1) - 道路分类器,以预测$ n $源类和未知类别,其中仅可用于培训的样本。此外,对于目标适应,我们简单地采用了加权熵最小化,以使源预处理的模型适应未标记的目标域而没有源数据。在实验中,我们显示了:$ \ textbf {1)} $在源培训后,生成的源模型可以获得$ \ textit {开放设定单域概括} $以及$ \ textit {开放设定{open-Set识别}的出色性能$任务; $ \ textbf {2)} $在目标适应后,我们的方法超过了当前的UNDA方法,这些方法在几个基准上的适应过程中需要源数据。对几个不同任务的多功能性强烈证明了我们方法的功效和概括能力。 $ \ textbf {3)} $在目标适应过程中使用封闭设置的域适应方法增强时,我们的无源方法进一步超过了当前的最新unda方法,将当前的方法提高2.5%,7.2%和13% Office-31,办公室和Visda。代码将在https://github.com/albert0147/onering中提供。
translated by 谷歌翻译
从一个非常少数标记的样品中学习新颖的课程引起了机器学习区域的越来越高。最近关于基于元学习或转移学习的基于范例的研究表明,良好特征空间的获取信息可以是在几次拍摄任务上实现有利性能的有效解决方案。在本文中,我们提出了一种简单但有效的范式,该范式解耦了学习特征表示和分类器的任务,并且只能通过典型的传送学习培训策略从基类嵌入体系结构的特征。为了在每个类别内保持跨基地和新类别和辨别能力的泛化能力,我们提出了一种双路径特征学习方案,其有效地结合了与对比特征结构的结构相似性。以这种方式,内部级别对齐和级别的均匀性可以很好地平衡,并且导致性能提高。三个流行基准测试的实验表明,当与简单的基于原型的分类器结合起来时,我们的方法仍然可以在电感或转换推理设置中的标准和广义的几次射击问题达到有希望的结果。
translated by 谷歌翻译
Unsupervised domain adaptation (UDA) aims to transfer knowledge from a well-labeled source domain to a different but related unlabeled target domain with identical label space. Currently, the main workhorse for solving UDA is domain alignment, which has proven successful. However, it is often difficult to find an appropriate source domain with identical label space. A more practical scenario is so-called partial domain adaptation (PDA) in which the source label set or space subsumes the target one. Unfortunately, in PDA, due to the existence of the irrelevant categories in the source domain, it is quite hard to obtain a perfect alignment, thus resulting in mode collapse and negative transfer. Although several efforts have been made by down-weighting the irrelevant source categories, the strategies used tend to be burdensome and risky since exactly which irrelevant categories are unknown. These challenges motivate us to find a relatively simpler alternative to solve PDA. To achieve this, we first provide a thorough theoretical analysis, which illustrates that the target risk is bounded by both model smoothness and between-domain discrepancy. Considering the difficulty of perfect alignment in solving PDA, we turn to focus on the model smoothness while discard the riskier domain alignment to enhance the adaptability of the model. Specifically, we instantiate the model smoothness as a quite simple intra-domain structure preserving (IDSP). To our best knowledge, this is the first naive attempt to address the PDA without domain alignment. Finally, our empirical results on multiple benchmark datasets demonstrate that IDSP is not only superior to the PDA SOTAs by a significant margin on some benchmarks (e.g., +10% on Cl->Rw and +8% on Ar->Rw ), but also complementary to domain alignment in the standard UDA
translated by 谷歌翻译
实用的现实世界数据集具有丰富的类别,为无监督的领域适应带来了新的挑战,例如小型阶层歧视性,仅依靠域不变性的现有方法不能很好地处理。在这项工作中,我们提出了MEMSAC,该MEMSAC利用了跨源和目标域的样本级别相似性​​,以实现判别性转移,以​​及扩展到大量类别的体系结构。为此,我们首先引入一种内存增强方法,以在标记的源和未标记的目标域实例之间有效提取成对的相似性关系,该实例适用于处理任意数量的类。接下来,我们建议和理论上证明对比损失的新型变体,以促进阶层内跨域样本之间的局部一致性,同时在类别之间执行分离,从而保留从源到目标的歧视性转移。我们验证了MEMSAC的优势,比以前的最先进的最先进的转移任务有了显着改进。我们还提供了深入的分析和对MEMSAC有效性的见解。
translated by 谷歌翻译
最近,无监督的域适应是一种有效的范例,用于概括深度神经网络到新的目标域。但是,仍有巨大的潜力才能达到完全监督的性能。在本文中,我们提出了一种新颖的主动学习策略,以帮助目标域中的知识转移,有效域适应。我们从观察开始,即当训练(源)和测试(目标)数据来自不同的分布时,基于能量的模型表现出自由能量偏差。灵感来自这种固有的机制,我们经验揭示了一种简单而有效的能源 - 基于能量的采样策略揭示了比需要特定架构或距离计算的现有方法的最有价值的目标样本。我们的算法,基于能量的活动域适应(EADA),查询逻辑数据组,它将域特征和实例不确定性结合到每个选择回合中。同时,通过通过正则化术语对准源域周围的目标数据紧凑的自由能,可以隐含地减少域间隙。通过广泛的实验,我们表明EADA在众所周知的具有挑战性的基准上超越了最先进的方法,具有实质性的改进,使其成为开放世界中的一个有用的选择。代码可在https://github.com/bit-da/eada获得。
translated by 谷歌翻译
作为对数据有效使用的研究,多源无监督的域适应性将知识从带有标记数据的多个源域转移到了未标记的目标域。但是,目标域中不同域和嘈杂的伪标签之间的分布差异都导致多源无监督域适应方法的性能瓶颈。鉴于此,我们提出了一种将注意力驱动的领域融合和耐噪声学习(ADNT)整合到上述两个问题的方法。首先,我们建立了相反的注意结构,以在特征和诱导域运动之间执行信息。通过这种方法,当域差异降低时,特征的可区分性也可以显着提高。其次,基于无监督的域适应训练的特征,我们设计了自适应的反向横向熵损失,该损失可以直接对伪标签的产生施加约束。最后,结合了这两种方法,几个基准的实验结果进一步验证了我们提出的ADNT的有效性,并证明了优于最新方法的性能。
translated by 谷歌翻译
本文研究了一个新的,实用但具有挑战性的问题,称为类无监督的域名适应性(CI-UDA),其中标记的源域包含所有类别,但是未标记的目标域中的类别依次增加。由于两个困难,这个问题具有挑战性。首先,源和目标标签集在每个时间步骤都不一致,这使得很难进行准确的域对齐。其次,以前的目标类在当前步骤中不可用,从而忘记了先前的知识。为了解决这个问题,我们提出了一种新型的原型引导连续适应(PROCA)方法,由两种解决方案策略组成。 1)标签原型识别:我们通过检测具有目标样本的累积预测概率的共享类来识别目标标签原型。 2)基于原型的对齐和重播:基于确定的标签原型,我们对齐域并强制执行模型以保留先前的知识。有了这两种策略,ProCA能够有效地将源模型改编为类未标记的目标域。广泛的实验证明了Proca在解决CI-UDA方面的有效性和优势。源代码可从https://github.com/hongbin98/proca.git获得
translated by 谷歌翻译
无监督的域适应(UDA)旨在将知识从标记的源域传输到未标记的目标域。大多数现有的UDA方法通过学习域 - 不变的表示和在两个域中共享一个分类器来实现知识传输。但是,忽略与任务相关的域特定信息,并强制统一的分类器以适合两个域将限制每个域中的特征表达性。在本文中,通过观察到具有可比参数的变压器架构可以产生比CNN对应的更可转换的表示,我们提出了一个双赢的变压器框架(WINTR),它分别探讨了每个域的特定于域的知识,而同时交互式跨域知识。具体而言,我们使用变压器中的两个单独的分类令牌学习两个不同的映射,以及每个特定于域的分类器的设计。跨域知识通过源引导标签改进和与源或目标的单侧特征对齐传输,这保持了特定于域的信息的完整性。三个基准数据集的广泛实验表明,我们的方法优于最先进的UDA方法,验证利用域特定和不变性的有效性
translated by 谷歌翻译
当前有监督的跨域图像检索方法可以实现出色的性能。但是,数据收集和标签的成本施加了在实际应用程序中实践部署的棘手障碍。在本文中,我们研究了无监督的跨域图像检索任务,其中类标签和配对注释不再是训练的先决条件。这是一项极具挑战性的任务,因为没有对内域特征表示学习和跨域对准的监督。我们通过引入:1)一种新的群体对比度学习机制来应对这两个挑战,以帮助提取班级语义感知特征,以及2)新的距离距离损失,以有效地测量并最大程度地减少域差异而无需任何外部监督。在办公室和域名数据集上进行的实验始终显示出与最先进方法相比,我们的框架的出色图像检索精度。我们的源代码可以在https://github.com/conghuihu/ucdir上找到。
translated by 谷歌翻译