神经过程最近被出现为一类强大的神经潜变模型,这些模型结合了神经网络和随机过程的优势。由于它们可以编码网络功能空间中的上下文数据,因此它们为多任务学习中的任务相关性提供了一种新方法。为了研究其潜力,我们开发多任务神经过程,是多任务学习的神经过程的新变种。特别是,我们建议探索功能空间中相关任务的可转让知识,以提供用于改善每个任务的归纳偏差。为此,我们派生在分层贝叶斯推理框架中的功能前导者,它使每个任务能够将相关任务提供的共享知识结合到预测函数的上下文中。我们的多任务神经工艺方法展开了Vanilla神经过程的范围,并提供了一种探索功能空间任务相关性的新方法,以获得多任务学习。所提出的多任务神经过程能够学习具有有限标记数据和域移位的有限的多个任务。我们对多任务回归和分类任务的几个基准进行了大量的实验评估。结果展示了多任务神经过程在多任务学习任务中转移有用知识的有效性以及多任务分类和大脑图像分割中的优越性。
translated by 谷歌翻译
多任务学习旨在探索任务相关性,以改善各个任务,这在挑战性方案中是特别重要的,只有每个任务只有有限的数据。为了解决这一挑战,我们提出了变分的多任务学习(VMTL),是用于学习多个相关任务的一般概率推断框架。我们将多项任务学习作为变分贝叶斯推理问题,其中通过指定前沿以统一的方式探讨任务相关性。为了将共享知识合并到每个任务中,我们将任务的前期设计为可被学习的其他相关任务的变分后部的混合,这是由Gumbel-Softmax技术学习的。与以前的方法相比,我们的VMTL可以通过联合推断出后视前推断出的方式,我们的VMTL可以以原则的方式利用两个表示和分类器的任务相关性。这使得各个任务能够完全利用相关任务提供的归纳偏差,因此提高了所有任务的整体性能。实验结果表明,所提出的VMTL能够有效地解决各种具有挑战性的多任务学习设置,其中包括分类和回归的有限训练数据。我们的方法始终如一地超越以前的方法,包括强烈的贝叶斯方法,并在五个基准数据集中实现最先进的性能。
translated by 谷歌翻译
在建立工程基础设施的预测模型时,提出了人群级分析来解决数据稀疏性。利用可解释的层次贝叶斯方法和操作车队数据,域专业知识是自然编码(并适当共享)在不同的子组之间,代表(i)使用型,(ii)组件或(iii)操作条件。具体而言,利用领域专业知识来通过假设(和先前的分布)来限制模型,从而使该方法可以自动共享相似资产之间的信息,从而改善了对风电场中卡车机队和权力预测的生存分析。在每个资产管理示例中,在合并的推理中学习了一组相关的功能,以学习人口模型。当允许子型在层次结构中的不同级别共享相关信息时,参数估计得到改善。反过来,数据不完整的组会自动从数据丰富的组中借用统计强度。统计相关性使知识转移能够通过贝叶斯转移学习,并且可以检查相关性,以告知哪些资产共享有关哪些效果(即参数)的信息。两种案例研究的成功都证明了实践基础设施监测的广泛适用性,因为该方法自然适应了不同原位示例的可解释的车队模型。
translated by 谷歌翻译
我们提出了一个统一的查看,即通过通用表示,一个深层神经网络共同学习多个视觉任务和视觉域。同时学习多个问题涉及最大程度地减少具有不同幅度和特征的多个损失函数的加权总和,从而导致一个损失的不平衡状态,与学习每个问题的单独模型相比,一个损失的不平衡状态主导了优化和差的结果。为此,我们提出了通过小容量适配器将多个任务/特定于域网络的知识提炼到单个深神经网络中的知识。我们严格地表明,通用表示在学习NYU-V2和CityScapes中多个密集的预测问题方面实现了最新的表现,来自视觉Decathlon数据集中的不同域中的多个图像分类问题以及MetadataSet中的跨域中的几个域中学习。最后,我们还通过消融和定性研究进行多次分析。
translated by 谷歌翻译
科学和工程领域广泛使用计算机模拟。这些模拟通常以多个级别的复杂性运行,以平衡准确性和效率。多保真替代建模通过融合不同的仿真输出来降低计算成本。低保真模拟器产生的廉价数据可以与昂贵的高保真模拟器生成的有限高质量数据结合使用。基于高斯流程的现有方法依赖于内核函数的强烈假设,并且几乎不能扩展到高维设置。我们提出了多保真层次神经过程(MF-HNP),这是一种用于多效率替代模型的统一神经潜在变量模型。 MF-HNP继承了神经过程的灵活性和可扩展性。潜在变量将不同的保真度水平之间的相关性从观测到潜在空间。鉴于潜在状态,跨忠诚度之间的预测是有条件独立的。它有助于缓解现有方法中的错误传播问题。 MF-HNP足够灵活,可以在不同的保真度水平下处理非巢高维数据,并具有不同的输入和输出尺寸。我们评估了MF-HNP关于流行病学和气候建模任务的评估,从而在准确性和不确定性估计方面实现了竞争性能。与仅具有低维度(<10)任务的Deep Gaussian过程相反,我们的方法显示出巨大的希望,可以加速高维复杂模拟(用于流行病学建模的7000多个超过7000个,对于气候建模45000)。
translated by 谷歌翻译
域的概括旨在提高机器学习系统到分布(OOD)数据的概括能力。现有的域概括技术将启动固定和离散环境,以解决由OOD数据引起的概括问题。但是,非平稳环境中的许多实际任务(例如,自动驱动的汽车系统,传感器度量)涉及更复杂和不断发展的域漂移,这为域概括的问题带来了新的挑战。在本文中,我们将上述设置作为不断发展的域概括问题。具体而言,我们建议引入一个称为潜在结构感知的顺序自动编码器(LSSAE)的概率框架,以解决通过探索深神经网络潜在空间中的基本连续结构来解决域的概括问题,我们旨在识别两个主要因素即协变量的转移和概念转移核算非平稳环境中的分配转移。合成和现实世界数据集的实验结果表明,LSSAE可以基于不断发展的域概括设置导致出色的性能。
translated by 谷歌翻译
自动行动质量评估(AQA)由于其广泛的应用而吸引了更多的兴趣。但是,现有的AQA方法通常采用多分支模型来生成多个分数,这对于处理可变数量的法官而言并不灵活。在本文中,我们提出了一种新型的不确定性驱动的AQA(UD-AQA)模型,以仅使用一个单个分支生成多个预测。具体而言,我们设计了基于CVAE(条件变异自动编码器)模块来编码不确定性,其中可以通过多次从学习的潜在空间进行采样来产生多个分数。此外,我们输出了不确定性的估计,并利用预测的不确定性重新体重AQA回归损失,这可以减少不确定样本训练的贡献。我们进一步设计了一种不确定性引导的训练策略,以动态调整样本的学习顺序,从低不确定性到高不确定性。实验表明,我们提出的方法在奥林匹克事件MTL-AQA和手术技能jigsaws数据集上实现了新的最新结果。
translated by 谷歌翻译
随机过程提供了数学上优雅的方式模型复杂数据。从理论上讲,它们为可以编码广泛有趣的假设的功能类提供了灵活的先验。但是,实际上,难以通过优化或边缘化来有效推断,这一问题进一步加剧了大数据和高维输入空间。我们提出了一种新颖的变性自动编码器(VAE),称为先前的编码变量自动编码器($ \ pi $ vae)。 $ \ pi $ vae是有限的交换且Kolmogorov一致的,因此是一个连续的随机过程。我们使用$ \ pi $ vae学习功能类的低维嵌入。我们表明,我们的框架可以准确地学习表达功能类,例如高斯流程,也可以学习函数的属性以启用统计推断(例如log高斯过程的积分)。对于流行的任务,例如空间插值,$ \ pi $ vae在准确性和计算效率方面都达到了最先进的性能。也许最有用的是,我们证明了所学的低维独立分布的潜在空间表示提供了一种优雅,可扩展的方法,可以在概率编程语言(例如Stan)中对随机过程进行贝叶斯推断。
translated by 谷歌翻译
多任务学习是通过在任务中传输和利用共同知识来提高模型的性能。现有的MTL主要关注多个任务(MTS)之间标签集的场景通常是相同的,因此它们可以用于跨任务学习。虽然几乎罕见的作品探索了每个任务只有少量训练样本的情况,而其标签集只是部分重叠甚至不是。由于这些任务之间可用的相关信息,学习此类MTS更具挑战性。为此,我们提出了一个框架来通过共同利用来自学习的辅助大任务的大量信息,以足够多的类来涵盖所有这些任务的富力信息以及在部分重叠的任务中共享的信息。在我们实现使用所学习辅助任务的相同神经网络架构来学习各个任务的情况下,关键的想法是利用可用的标签信息来自适应地修剪辅助网络的隐藏层神经元,以构造每个任务的相应网络,同时伴随各个任务的联合学习。我们的实验结果表明其与最先进的方法相比其有效性。
translated by 谷歌翻译
变异推理(VI)的核心原理是将计算复杂后概率密度计算的统计推断问题转换为可拖动的优化问题。该属性使VI比几种基于采样的技术更快。但是,传统的VI算法无法扩展到大型数据集,并且无法轻易推断出越野数据点,而无需重新运行优化过程。该领域的最新发展,例如随机,黑框和摊销VI,已帮助解决了这些问题。如今,生成的建模任务广泛利用摊销VI来实现其效率和可扩展性,因为它利用参数化函数来学习近似的后验密度参数。在本文中,我们回顾了各种VI技术的数学基础,以构成理解摊销VI的基础。此外,我们还概述了最近解决摊销VI问题的趋势,例如摊销差距,泛化问题,不一致的表示学习和后验崩溃。最后,我们分析了改善VI优化的替代差异度量。
translated by 谷歌翻译
自动检测视网膜结构,例如视网膜血管(RV),凹起的血管区(FAZ)和视网膜血管连接(RVJ),对于了解眼睛的疾病和临床决策非常重要。在本文中,我们提出了一种新型的基于投票的自适应特征融合多任务网络(VAFF-NET),用于在光学相干性层析成像(OCTA)中对RV,FAZ和RVJ进行联合分割,检测和分类。提出了一个特定于任务的投票门模块,以适应并融合两个级别的特定任务的不同功能:来自单个编码器的不同空间位置的特征,以及来自多个编码器的功能。特别是,由于八八座图像中微脉管系统的复杂性使视网膜血管连接连接到分叉/跨越具有挑战性的任务的同时定位和分类,因此我们通过结合热图回归和网格分类来专门设计任务头。我们利用来自各种视网膜层的三个不同的\ textit {en face}血管造影,而不是遵循仅使用单个\ textit {en face}的现有方法。为了促进进一步的研究,已经发布了这些数据集的部分数据集,并已发布了公共访问:https://github.com/imed-lab/vaff-net。
translated by 谷歌翻译
神经记忆能够快速适应新任务,只需几个训练样本。现有的内存模型仅从单个最后一层存储特征,在培训和测试分布之间存在域之间的域移位不概括。我们不是依赖扁平内存,我们提出了一种在不同语义层面存储特征的分层替代方案。我们介绍了分层原型模型,其中每个级别的原型从分层内存中获取相应的信息。如果域移位情况如此需要,该模型能够灵活地依赖不同语义级别的功能。我们通过新派生的分层变分推理框架来学习模型,其中分层内存和原型是共同优化的。为了探索和利用不同语义层面的重要性,我们进一步建议以数据驱动方式学习与每个级别的原型相关联的权重,这使得模型能够自适应地选择最概括的功能。我们进行彻底的消融研究,以证明我们模型中每个组件的有效性。在跨领域和传统少量拍摄分类上的跨领域和竞争性能的新的最先进的性能进一步证实了等级变分记忆的益处。
translated by 谷歌翻译
In the scope of "AI for Science", solving inverse problems is a longstanding challenge in materials and drug discovery, where the goal is to determine the hidden structures given a set of desirable properties. Deep generative models are recently proposed to solve inverse problems, but these currently use expensive forward operators and struggle in precisely localizing the exact solutions and fully exploring the parameter spaces without missing solutions. In this work, we propose a novel approach (called iPage) to accelerate the inverse learning process by leveraging probabilistic inference from deep invertible models and deterministic optimization via fast gradient descent. Given a target property, the learned invertible model provides a posterior over the parameter space; we identify these posterior samples as an intelligent prior initialization which enables us to narrow down the search space. We then perform gradient descent to calibrate the inverse solutions within a local region. Meanwhile, a space-filling sampling is imposed on the latent space to better explore and capture all possible solutions. We evaluate our approach on three benchmark tasks and two created datasets with real-world applications from quantum chemistry and additive manufacturing, and find our method achieves superior performance compared to several state-of-the-art baseline methods. The iPage code is available at https://github.com/jxzhangjhu/MatDesINNe.
translated by 谷歌翻译
从少数样本中学习的多功能性是人类智能的标志。很少有学习能力超越机器的努力。受概率深度学习的承诺和力量的启发,我们提出了一个新颖的变异推理网络,用于几个射击分类(被构成三叉戟),将图像的表示形式分离为语义和标记潜在变量,并以相互交织的方式推断它们。为了诱导任务意识,作为三叉戟推理机制的一部分,我们使用一种新型的基于内置的基于注意的转导功能提取模块(我们致电ATTFEX)在查询和支持图像上借鉴了几次任务的图像。我们广泛的实验结果证实了三叉戟的功效,并证明,使用最简单的骨架,它在最常见的数据集Miniimagenet和Tieredimagenet中设置了新的最新时间(最多可提高4%和5%,,高达4%和5%分别是)以及最近具有挑战性的跨域迷你膜 - > CUB场景,其范围超出了最佳现有跨域基线的显着利润率(最高20%)。可以在我们的GitHub存储库中找到代码和实验:https://github.com/anujinho/trident
translated by 谷歌翻译
在现实生活中,机器学习模型经常面临培训和测试域之间存在数据分布的变化的情景。当目标是对不同于在培训中看到的分布的预测,我们会产生域泛化问题。解决此问题的方法使用来自多个源域的数据来学习模型,然后将此模型应用于未经调整的目标域。我们的假设是,当用多个域训练时,每个迷你批处理中的冲突梯度包含特定于与其他域的各个域特定的信息,包括测试域。如果保持不受影响,这种分歧可能会降低泛化性能。在这项工作中,我们在域移情中出现的突出梯度,并根据梯度手术制定新的渐变协议策略,以减轻其效果。我们在具有三个多域数据集中的图像分类任务中验证了我们的方法,显示了提高域移位情景中深入学习模型的泛化能力的拟议协议策略的价值。
translated by 谷歌翻译
贝叶斯优化(BO)已成为许多昂贵现实世界功能的全球优化的流行策略。与普遍认为BO适合优化黑框功能的信念相反,它实际上需要有关这些功能特征的域知识才能成功部署BO。这样的领域知识通常表现在高斯流程先验中,这些先验指定了有关功能的初始信念。但是,即使有专家知识,选择先验也不是一件容易的事。对于复杂的机器学习模型上的超参数调谐问题尤其如此,在这种模型中,调整目标的景观通常很难理解。我们寻求一种设定这些功能性先验的替代实践。特别是,我们考虑了从类似功能的数据中,使我们可以先验地进行更紧密的分布。从理论上讲,我们与预先训练的先验表示对BO的遗憾。为了验证我们在现实的模型培训设置中的方法,我们通过训练在流行图像和文本数据集上的数以万计的近状态模型配置来收集了大型多任务超参数调谐数据集,以及蛋白质序列数据集。我们的结果表明,平均而言,我们的方法能够比最佳竞争方法更有效地定位良好的超参数。
translated by 谷歌翻译
空间变压器网络(STNS)估计图像变换,可以通过“放大”图像中的相关区域来改善下游任务。但是,STN很难训练,并且对转型的错误预测敏感。为了避免这些局限性,我们提出了一种概率扩展,该扩展估计了随机转化而不是确定性的转换。边缘化转换使我们能够以多个姿势考虑每个图像,这使本地化任务变得更加容易,并且培训更加健壮。作为另一个好处,随机转换充当了局部,学习的数据增强,可改善下游任务。我们在标准成像基准和充满挑战的现实数据集中显示,这两种属性可改善分类性能,鲁棒性和模型校准。我们进一步证明,该方法通过改善时间序列数据的模型性能来推广到非视觉域。
translated by 谷歌翻译
The success of machine learning algorithms generally depends on data representation, and we hypothesize that this is because different representations can entangle and hide more or less the different explanatory factors of variation behind the data. Although specific domain knowledge can be used to help design representations, learning with generic priors can also be used, and the quest for AI is motivating the design of more powerful representation-learning algorithms implementing such priors. This paper reviews recent work in the area of unsupervised feature learning and deep learning, covering advances in probabilistic models, auto-encoders, manifold learning, and deep networks. This motivates longer-term unanswered questions about the appropriate objectives for learning good representations, for computing representations (i.e., inference), and the geometrical connections between representation learning, density estimation and manifold learning.
translated by 谷歌翻译
域的概括(DG)旨在学习一个对源域的模型,以很好地概括看不见的目标域。尽管它取得了巨大的成功,但大多数现有方法都需要用于源域中所有培训样本的标签信息,这在现实世界中既耗时又昂贵。在本文中,我们求助于解决半监督域的概括(SSDG)任务,其中每个源域中都有一些标签信息。为了解决任务,我们首先分析多域学习的理论,该理论强调了1)减轻域间隙的影响和2)利用所有样品训练模型可以有效地减少每个源域中的概括误差,因此提高伪标签的质量。根据分析,我们提出了Multimatch,即将FixMatch扩展到多任务学习框架,从而为SSDG生成高质量的伪标签。具体来说,我们将每个培训域视为一个任务(即本地任务),并将所有培训域(即全球任务)组合在一起,以训练看不见的测试域的额外任务。在多任务框架中,我们为每个任务使用独立的BN和分类器,这可以有效地减轻伪标记期间不同领域的干扰。同样,共享框架中的大多数参数,可以通过所有培训样本进行培训。此外,为了进一步提高伪标签的准确性和模型的概括,我们分别在培训和测试过程中分别融合了全球任务和本地任务的预测。一系列实验验证了所提出的方法的有效性,并且在几个基准DG数据集上优于现有的半监督方法和SSDG方法。
translated by 谷歌翻译
在最近的文献中,在最近的文献中已经过度研究了不确定性估计,通常可以被归类为炼体不确定性和认知不确定性。在当前的炼拉内不确定性估计框架中,往往忽略了炼拉线性的不确定性是数据的固有属性,只能用一个无偏见的Oracle模型正确估计。由于在大多数情况下,Oracle模型无法访问,我们提出了一个新的采样和选择策略,在火车时间近似甲骨文模型以实现炼梯不确定性估计。此外,我们在基于双头的异源型梯级不确定性估计框架中显示了一种琐碎的解决方案,并引入了新的不确定性一致性损失,以避免它。对于认知不确定性估算,我们认为条件潜在变量模型中的内部变量是模拟预测分布的另一个认识性的不确定性,并探索了关于隐藏的真实模型的有限知识。我们验证了我们对密集预测任务的观察,即伪装对象检测。我们的研究结果表明,我们的解决方案实现了准确的确定性结果和可靠的不确定性估算。
translated by 谷歌翻译