Uncertainty quantification is crucial to inverse problems, as it could provide decision-makers with valuable information about the inversion results. For example, seismic inversion is a notoriously ill-posed inverse problem due to the band-limited and noisy nature of seismic data. It is therefore of paramount importance to quantify the uncertainties associated to the inversion process to ease the subsequent interpretation and decision making processes. Within this framework of reference, sampling from a target posterior provides a fundamental approach to quantifying the uncertainty in seismic inversion. However, selecting appropriate prior information in a probabilistic inversion is crucial, yet non-trivial, as it influences the ability of a sampling-based inference in providing geological realism in the posterior samples. To overcome such limitations, we present a regularized variational inference framework that performs posterior inference by implicitly regularizing the Kullback-Leibler divergence loss with a CNN-based denoiser by means of the Plug-and-Play methods. We call this new algorithm Plug-and-Play Stein Variational Gradient Descent (PnP-SVGD) and demonstrate its ability in producing high-resolution, trustworthy samples representative of the subsurface structures, which we argue could be used for post-inference tasks such as reservoir modelling and history matching. To validate the proposed method, numerical tests are performed on both synthetic and field post-stack seismic data.
translated by 谷歌翻译
远期操作员的计算成本和选择适当的先前分布的计算成本挑战了贝叶斯对高维逆问题的推断。摊销的变异推理解决了这些挑战,在这些挑战中,训练神经网络以近似于现有模型和数据对的后验分布。如果以前看不见的数据和正态分布的潜在样品作为输入,则预处理的深神经网络(在我们的情况下是有条件的正常化流量)几乎没有成本的后验样品。然而,这种方法的准确性取决于高保真训练数据的可用性,由于地球的异质结构,由于地球物理逆问题很少存在。此外,准确的摊销变异推断需要从训练数据分布中汲取观察到的数据。因此,我们建议通过基于物理学的校正对有条件的归一化流量分布来提高摊销变异推断的弹性。为了实现这一目标,我们不是标准的高斯潜在分布,我们通过具有未知平均值和对角线协方差的高斯分布来对潜在分布进行参数化。然后,通过最小化校正后分布和真实后验分布之间的kullback-leibler差异来估算这些未知数量。尽管通用和适用于其他反问题,但通过地震成像示例,我们表明我们的校正步骤可提高摊销变异推理的鲁棒性,以相对于源实验数量的变化,噪声方差以及先前分布的变化。这种方法提供了伪像有限的地震图像,并评估其不确定性,其成本大致与五个反度迁移相同。
translated by 谷歌翻译
我们建议使用贝叶斯推理和深度神经网络的技术,将地震成像中的不确定性转化为图像上执行的任务的不确定性,例如地平线跟踪。地震成像是由于带宽和孔径限制,这是一个不良的逆问题,由于噪声和线性化误差的存在而受到阻碍。但是,许多正规化方法,例如变形域的稀疏性促进,已设计为处理这些错误的不利影响,但是,这些方法具有偏向解决方案的风险,并且不提供有关图像空间中不确定性的信息以及如何提供信息。不确定性会影响图像上的某些任务。提出了一种系统的方法,以将由于数据中的噪声引起的不确定性转化为图像中自动跟踪视野的置信区间。不确定性的特征是卷积神经网络(CNN)并评估这些不确定性,样品是从CNN权重的后验分布中得出的,用于参数化图像。与传统先验相比,文献中认为,这些CNN引入了灵活的感应偏见,这非常适合各种问题。随机梯度Langevin动力学的方法用于从后验分布中采样。该方法旨在处理大规模的贝叶斯推理问题,即具有地震成像中的计算昂贵的远期操作员。除了提供强大的替代方案外,最大的后验估计值容易过度拟合外,访问这些样品还可以使我们能够在数据中的噪声中转换图像中的不确定性,以便在跟踪的视野上不确定性。例如,它承认图像上的重点标准偏差和自动跟踪视野的置信区间的估计值。
translated by 谷歌翻译
We propose a general purpose variational inference algorithm that forms a natural counterpart of gradient descent for optimization. Our method iteratively transports a set of particles to match the target distribution, by applying a form of functional gradient descent that minimizes the KL divergence. Empirical studies are performed on various real world models and datasets, on which our method is competitive with existing state-of-the-art methods. The derivation of our method is based on a new theoretical result that connects the derivative of KL divergence under smooth transforms with Stein's identity and a recently proposed kernelized Stein discrepancy, which is of independent interest.
translated by 谷歌翻译
近年来,深度学习在图像重建方面取得了显着的经验成功。这已经促进了对关键用例中数据驱动方法的正确性和可靠性的精确表征的持续追求,例如在医学成像中。尽管基于深度学习的方法具有出色的性能和功效,但对其稳定性或缺乏稳定性的关注以及严重的实际含义。近年来,已经取得了重大进展,以揭示数据驱动的图像恢复方法的内部运作,从而挑战了其广泛认为的黑盒本质。在本文中,我们将为数据驱动的图像重建指定相关的融合概念,该概念将构成具有数学上严格重建保证的学习方法调查的基础。强调的一个例子是ICNN的作用,提供了将深度学习的力量与经典凸正则化理论相结合的可能性,用于设计被证明是融合的方法。这篇调查文章旨在通过提供对数据驱动的图像重建方法以及从业人员的理解,旨在通过提供可访问的融合概念的描述,并通过将一些现有的经验实践放在可靠的数学上,来推进我们对数据驱动图像重建方法的理解以及从业人员的了解。基础。
translated by 谷歌翻译
逆问题本质上是普遍存在的,几乎在科学和工程的几乎所有领域都出现,从地球物理学和气候科学到天体物理学和生物力学。解决反问题的核心挑战之一是解决他们的不良天性。贝叶斯推论提供了一种原则性的方法来克服这一方法,通过将逆问题提出为统计框架。但是,当推断具有大幅度的离散表示的字段(所谓的“维度的诅咒”)和/或仅以先前获取的解决方案的形式可用时。在这项工作中,我们提出了一种新的方法,可以使用深层生成模型进行有效,准确的贝叶斯反转。具体而言,我们证明了如何使用生成对抗网络(GAN)在贝叶斯更新中学到的近似分布,并在GAN的低维度潜在空间中重新解决所得的推断问题,从而有效地解决了大规模的解决方案。贝叶斯逆问题。我们的统计框架保留了潜在的物理学,并且被证明可以通过可靠的不确定性估计得出准确的结果,即使没有有关基础噪声模型的信息,这对于许多现有方法来说都是一个重大挑战。我们证明了提出方法对各种反问题的有效性,包括合成和实验观察到的数据。
translated by 谷歌翻译
变异推理(VI)的核心原理是将计算复杂后概率密度计算的统计推断问题转换为可拖动的优化问题。该属性使VI比几种基于采样的技术更快。但是,传统的VI算法无法扩展到大型数据集,并且无法轻易推断出越野数据点,而无需重新运行优化过程。该领域的最新发展,例如随机,黑框和摊销VI,已帮助解决了这些问题。如今,生成的建模任务广泛利用摊销VI来实现其效率和可扩展性,因为它利用参数化函数来学习近似的后验密度参数。在本文中,我们回顾了各种VI技术的数学基础,以构成理解摊销VI的基础。此外,我们还概述了最近解决摊销VI问题的趋势,例如摊销差距,泛化问题,不一致的表示学习和后验崩溃。最后,我们分析了改善VI优化的替代差异度量。
translated by 谷歌翻译
本文介绍了使用基于补丁的先前分布的图像恢复的新期望传播(EP)框架。虽然Monte Carlo技术典型地用于从难以处理的后分布中进行采样,但它们可以在诸如图像恢复之类的高维推论问题中遭受可扩展性问题。为了解决这个问题,这里使用EP来使用多元高斯密度的产品近似后分布。此外,对这些密度的协方差矩阵施加结构约束允许更大的可扩展性和分布式计算。虽然该方法自然适于处理添加剂高斯观察噪声,但它也可以扩展到非高斯噪声。用于高斯和泊松噪声的去噪,染色和去卷积问题进行的实验说明了这种柔性近似贝叶斯方法的潜在益处,以实现与采样技术相比降低的计算成本。
translated by 谷歌翻译
近年来,机器学习领域在追求模拟实际数据生成过程方面取得了现象。这种成功的一个值示例是变形AutoEncoder(VAE)。在这项工作中,通过透视的较小,我们利用和调整VAES以进行不同的目的:科学反向问题的不确定性量化。我们介绍了UQ-VAE:一种灵活,自适应,混合数据/模型通知的框架,用于培训能够快速建模代表感兴趣的未知参数的后部分布的神经网络。具体地,从基于分解的变分推断,我们的框架被导出,使得通常存在于科学逆问题中的大多数信息在训练过程中充分利用。此外,该框架包括可调节的超参数,允许选择后模型与目标分布之间的距离概念。这引入了控制优化如何指导后模型的学习的灵活性。此外,该框架具有固有的自适应优化属性,通过学习后部不确定性出现。
translated by 谷歌翻译
我们介绍了一种使用Stein变异推断的概率偏置反转的方案。我们的方法以物理知识的神经网络的形式使用了可区分的远期模型,我们训练该模型以求解Eikonal方程。这可以通过迭代优化粒子差异的粒子集合来快速近似后验。我们表明该方法具有良好的能力处理高度多模式后分布,这在次心逆问题中很常见。进行了一套实验,以检查各种超参数的影响。一旦受过培训,该方法对于研究区域内的任何地震网络几何形状有效,而无需构建旅行时间表。我们表明,计算需求在差异时间的数量中有效地扩展,因此它非常适合分布式声传感等大N传感技术。本手稿中概述的技术除了仅仅是射线追踪过程之外,还具有相当大的含义,其工作流程适用于其他具有计算昂贵的反转过程(例如全波形反演)的字段。
translated by 谷歌翻译
点云匹配中不确定性的量化在许多任务中是关键的,例如姿势估计,传感器融合和抓握。迭代最近的点(ICP)是一种常用的姿势估计算法,它提供了两个点云之间的变换的点估计。在该过程中存在许多不确定性来源,这可能由于传感器噪声,含糊不清的环境和遮挡而产生。然而,对于自主驾驶等安全性问题,对于姿势变换的点估计是不足的,因为它不提供关于多解决方案的信息。目前的概率ICP方法通常不会捕获所有不确定性的来源,并且可以提供不可靠的变换估计,这可能在状态估计或使用此信息的任务中具有不利影响。在这项工作中,我们提出了一种新的算法来对齐两个点云,可以精确估计ICP的变换参数的不确定性。我们开发了基于梯度的ICP成本函数优化的Stein变分推断框架。该方法提供了对变换的非参数估计,可以模拟复杂的多模态分布,并且可以在GPU上有效地平行化。使用3D Kinect数据以及稀疏室内/室外激光雷达数据的实验表明,我们的方法能够有效地生产准确的构成不确定性估计。
translated by 谷歌翻译
从卫星图像中提取的大气运动向量(AMV)是唯一具有良好全球覆盖范围的风观测。它们是进食数值天气预测(NWP)模型的重要特征。已经提出了几种贝叶斯模型来估计AMV。尽管对于正确同化NWP模型至关重要,但很少有方法可以彻底表征估计误差。估计误差的困难源于后验分布的特异性,这既是很高的维度,又是由于奇异的可能性而导致高度不良的条件,这在缺少数据(未观察到的像素)的情况下特别重要。这项工作研究了使用基于梯度的Markov链Monte Carlo(MCMC)算法评估AMV的预期误差。我们的主要贡献是提出一种回火策略,这相当于在点估计值附近的AMV和图像变量的联合后验分布的局部近似。此外,我们提供了与先前家庭本身有关的协方差(分数布朗运动),并具有不同的超参数。从理论的角度来看,我们表明,在规律性假设下,随着温度降低到{optimal}高斯近似值,在最大a后验(MAP)对数密度给出的点估计下,温度降低到{optimal}高斯近似值。从经验的角度来看,我们根据一些定量的贝叶斯评估标准评估了提出的方法。我们对合成和真实气象数据进行的数值模拟揭示了AMV点估计的准确性及其相关的预期误差估计值的显着提高,但在MCMC算法的收敛速度方面也有很大的加速度。
translated by 谷歌翻译
具有伽马超高提升的分层模型提供了一个灵活,稀疏的促销框架,用于桥接$ l ^ 1 $和$ l ^ 2 $ scalalizations在贝叶斯的配方中致正问题。尽管对这些模型具有贝叶斯动机,但现有的方法仅限于\ Textit {最大后验}估计。尚未实现执行不确定性量化的可能性。本文介绍了伽马超高图的分层逆问题的变分迭代交替方案。所提出的变分推理方法产生精确的重建,提供有意义的不确定性量化,易于实施。此外,它自然地引入了用于选择超参数的模型选择。我们说明了我们在几个计算的示例中的方法的性能,包括从时间序列数据的动态系统的解卷积问题和稀疏识别。
translated by 谷歌翻译
我们考虑了使用显微镜或X射线散射技术产生的图像数据自组装的模型的贝叶斯校准。为了说明BCP平衡结构中的随机远程疾病,我们引入了辅助变量以表示这种不确定性。然而,这些变量导致了高维图像数据的综合可能性,通常可以评估。我们使用基于测量运输的可能性方法以及图像数据的摘要统计数据来解决这一具有挑战性的贝叶斯推理问题。我们还表明,可以计算出有关模型参数的数据中的预期信息收益(EIG),而无需额外的成本。最后,我们介绍了基于二嵌段共聚物薄膜自组装和自上而下显微镜表征的ohta-kawasaki模型的数值案例研究。为了进行校准,我们介绍了一些基于域的能量和傅立叶的摘要统计数据,并使用EIG量化了它们的信息性。我们证明了拟议方法研究数据损坏和实验设计对校准结果的影响的力量。
translated by 谷歌翻译
We present the GPry algorithm for fast Bayesian inference of general (non-Gaussian) posteriors with a moderate number of parameters. GPry does not need any pre-training, special hardware such as GPUs, and is intended as a drop-in replacement for traditional Monte Carlo methods for Bayesian inference. Our algorithm is based on generating a Gaussian Process surrogate model of the log-posterior, aided by a Support Vector Machine classifier that excludes extreme or non-finite values. An active learning scheme allows us to reduce the number of required posterior evaluations by two orders of magnitude compared to traditional Monte Carlo inference. Our algorithm allows for parallel evaluations of the posterior at optimal locations, further reducing wall-clock times. We significantly improve performance using properties of the posterior in our active learning scheme and for the definition of the GP prior. In particular we account for the expected dynamical range of the posterior in different dimensionalities. We test our model against a number of synthetic and cosmological examples. GPry outperforms traditional Monte Carlo methods when the evaluation time of the likelihood (or the calculation of theoretical observables) is of the order of seconds; for evaluation times of over a minute it can perform inference in days that would take months using traditional methods. GPry is distributed as an open source Python package (pip install gpry) and can also be found at https://github.com/jonaselgammal/GPry.
translated by 谷歌翻译
现代深度学习方法构成了令人难以置信的强大工具,以解决无数的挑战问题。然而,由于深度学习方法作为黑匣子运作,因此与其预测相关的不确定性往往是挑战量化。贝叶斯统计数据提供了一种形式主义来理解和量化与深度神经网络预测相关的不确定性。本教程概述了相关文献和完整的工具集,用于设计,实施,列车,使用和评估贝叶斯神经网络,即使用贝叶斯方法培训的随机人工神经网络。
translated by 谷歌翻译
我们在凸优化和深度学习的界面上引入了一类新的迭代图像重建算法,以启发凸出和深度学习。该方法包括通过训练深神网络(DNN)作为Denoiser学习先前的图像模型,并将其替换为优化算法的手工近端正则操作员。拟议的airi(``````````````''''')框架,用于成像复杂的强度结构,并从可见性数据中扩散和微弱的发射,继承了优化的鲁棒性和解释性,以及网络的学习能力和速度。我们的方法取决于三个步骤。首先,我们从光强度图像设计了一个低动态范围训练数据库。其次,我们以从数据的信噪比推断出的噪声水平来训练DNN Denoiser。我们使用训练损失提高了术语,可确保算法收敛,并通过指示进行即时数据库动态范围增强。第三,我们将学习的DeNoiser插入前向后的优化算法中,从而产生了一个简单的迭代结构,该结构与梯度下降的数据输入步骤交替出现Denoising步骤。我们已经验证了SARA家族的清洁,优化算法的AIRI,并经过DNN训练,可以直接从可见性数据中重建图像。仿真结果表明,AIRI与SARA及其基于前卫的版本USARA具有竞争力,同时提供了显着的加速。干净保持更快,但质量较低。端到端DNN提供了进一步的加速,但质量远低于AIRI。
translated by 谷歌翻译
深度展开是一种基于深度学习的图像重建方法,它弥合了基于模型和纯粹的基于深度学习的图像重建方法之间的差距。尽管深层展开的方法实现了成像问题的最新性能,并允许将观察模型纳入重建过程,但它们没有提供有关重建图像的任何不确定性信息,这严重限制了他们在实践中的使用,尤其是用于安全 - 关键成像应用。在本文中,我们提出了一个基于学习的图像重建框架,该框架将观察模型纳入重建任务中,并能够基于深层展开和贝叶斯神经网络来量化认知和核心不确定性。我们证明了所提出的框架在磁共振成像和计算机断层扫描重建问题上的不确定性表征能力。我们研究了拟议框架提供的认知和态度不确定性信息的特征,以激发未来的研究利用不确定性信息来开发更准确,健壮,可信赖,不确定性,基于学习的图像重建和成像问题的分析方法。我们表明,所提出的框架可以提供不确定性信息,同时与最新的深层展开方法实现可比的重建性能。
translated by 谷歌翻译
从降压和嘈杂的测量值(例如MRI和低剂量计算机断层扫描(CT))中重建图像是数学上不良的反问题。我们提出了一种基于期望传播(EP)技术的易于使用的重建方法。我们将蒙特卡洛(MC)方法,马尔可夫链蒙特卡洛(MCMC)和乘数(ADMM)算法的交替方向方法纳入EP方法,以解决EP中遇到的棘手性问题。我们在复杂的贝叶斯模型上演示了图像重建的方法。我们的技术应用于伽马相机扫描中的图像。我们仅将EPMC,EP-MCMC,EP-ADMM方法与MCMC进行比较。指标是更好的图像重建,速度和参数估计。在真实和模拟数据中使用伽马相机成像进行的实验表明,我们提出的方法在计算上比MCMC昂贵,并且产生相对更好的图像重建。
translated by 谷歌翻译
本文提出了一种新的加速马尔可夫链蒙特卡洛(MCMC)方法,以在成像逆问题中有效地执行贝叶斯计算。所提出的方法源自兰格文扩散过程,并源于紧密整合两个最先进的近端Langevin MCMC采样器,SK-ROCK和SPLIST GIBBS采样(SGS),它们采用明显不同的策略来提高收敛速度。更确切地说,我们在Langevin扩散过程的水平上展示了如何集成基于随机的Runge-Kutta-chebyshev扩散的近端SK-ROCK采样器,该采样器具有模型增强和放松策略,可用于扩散以牺牲渐近偏差为代价加快贝叶斯计算的速度。这导致了一种新的,更快的近端SK-ROCK采样器,将原始SK-Rock采样器的加速质量与增强和放松的计算益处相结合。此外,我们建议将增强和放松的模型视为目标模型的近似值,而是将放松定位在偏见 - 差异权衡中,而是建议将增强和放松的模型视为目标模型的概括。然后,这使我们能够仔细校准放松量,以同时提高模型的准确性(通过模型证据衡量)和采样器的收敛速度。为了实现这一目标,我们得出了一种经验性的贝叶斯方法,可以通过最大的边际似然估计自动估计最佳的松弛量。通过与图像脱毛和内化相关的一系列数值实验,以及与艺术状态的替代方法进行比较,证明了所提出的方法。
translated by 谷歌翻译