归一化流程模型在简单的基本分布上运行的族裔转换方面,复杂的目标分布。因此,它们可以对许多重要的统计量,尤其是可能性和样本进行可触及的计算。尽管具有这些吸引人的属性,但更复杂的推理任务的计算,例如复杂区域(例如,多层)上的累积分布函数(CDF)仍然具有挑战性。使用蒙特卡洛技术的传统CDF近似值是公正的,但具有无界方差和较低的样品效率。取而代之的是,我们建立在标准化流的差异特性的基础上,并利用差异定理在目标空间中的封闭区域估计CDF,这是由横向范围的流量横向空间的\ emph {boundare}而言。我们描述了该估计值的确定性和随机实例:而确定性变体迭代通过策略性地细化边界来改善估计值,而随机变体则提供了无偏的估计值。我们对流行流架构和UCI基准数据集的实验表明,与传统估计器相比,样本效率的提高显着提高。
translated by 谷歌翻译
Normalizing flows provide a general mechanism for defining expressive probability distributions, only requiring the specification of a (usually simple) base distribution and a series of bijective transformations. There has been much recent work on normalizing flows, ranging from improving their expressive power to expanding their application. We believe the field has now matured and is in need of a unified perspective. In this review, we attempt to provide such a perspective by describing flows through the lens of probabilistic modeling and inference. We place special emphasis on the fundamental principles of flow design, and discuss foundational topics such as expressive power and computational trade-offs. We also broaden the conceptual framing of flows by relating them to more general probability transformations. Lastly, we summarize the use of flows for tasks such as generative modeling, approximate inference, and supervised learning.
translated by 谷歌翻译
Normalizing Flows are generative models which produce tractable distributions where both sampling and density evaluation can be efficient and exact. The goal of this survey article is to give a coherent and comprehensive review of the literature around the construction and use of Normalizing Flows for distribution learning. We aim to provide context and explanation of the models, review current state-of-the-art literature, and identify open questions and promising future directions.
translated by 谷歌翻译
度量的运输提供了一种用于建模复杂概率分布的多功能方法,并具有密度估计,贝叶斯推理,生成建模及其他方法的应用。单调三角传输地图$ \ unicode {x2014} $近似值$ \ unicode {x2013} $ rosenblatt(kr)重新安排$ \ unicode {x2014} $是这些任务的规范选择。然而,此类地图的表示和参数化对它们的一般性和表现力以及对从数据学习地图学习(例如,通过最大似然估计)出现的优化问题的属性产生了重大影响。我们提出了一个通用框架,用于通过平滑函数的可逆变换来表示单调三角图。我们建立了有关转化的条件,以使相关的无限维度最小化问题没有伪造的局部最小值,即所有局部最小值都是全球最小值。我们展示了满足某些尾巴条件的目标分布,唯一的全局最小化器与KR地图相对应。鉴于来自目标的样品,我们提出了一种自适应算法,该算法估计了基础KR映射的稀疏半参数近似。我们证明了如何将该框架应用于关节和条件密度估计,无可能的推断以及有向图形模型的结构学习,并在一系列样本量之间具有稳定的概括性能。
translated by 谷歌翻译
我们提出了一种非常重要的抽样方法,该方法适用于估计高维问题中的罕见事件概率。我们将一般重要性抽样问题中的最佳重要性分布近似为在订单保留转换组成下的参考分布的推动力,在这种转换的组成下,每种转换都是由平方的张量训练 - 培训分解形成的。平方张量训练的分解提供了可扩展的ANSATZ,用于通过密度近似值来构建具有订单的高维转换。沿着一系列桥接密度移动的地图组成的使用减轻了直接近似浓缩密度函数的难度。为了计算对非规范概率分布的期望,我们设计了一个比率估计器,该比率估计器使用单独的重要性分布估算归一化常数,这再次通过张量训练格式的转换组成构建。与自称的重要性抽样相比,这提供了更好的理论差异,因此为贝叶斯推理问题中罕见事件概率的有效计算打开了大门。关于受微分方程约束的问题的数值实验显示,计算复杂性几乎没有增加,事件概率将零,并允许对迄今为止对复杂,高维后密度的罕见事件概率的迄今无法获得的估计。
translated by 谷歌翻译
桥梁采样是一种强大的蒙特卡洛方法,用于估计标准化常数的比率。引入了各种方法以提高其效率。这些方法旨在通过对它们应用适当的转换而不更改标准化常数来增加密度之间的重叠。在本文中,我们首先给出了最佳桥梁估计器的渐近相对平方误差(RMSE)的新估计器,通过等效地估计两个密度之间的$ f $差异。然后,我们利用此框架,并根据二元式转换提出$ f $ -gan桥估计器($ f $ -GB),该框架将一个密度映射到另一个密度,并最小化最佳桥梁估计器的渐近RMSE相对于密度。通过使用$ f $ gan之间的密度之间的特定$ f $ divergence来选择这种转换。从某种意义上说,在任何给定的候选转换中,$ f $ -GB估算器可以渐近地实现比桥梁估算器低于或等于由任何其他转换的密度低的RMSE,我们显示出$ f $ -GB是最佳的。数值实验表明,$ f $ -GB在模拟和现实世界中的现有方法优于现有方法。此外,我们讨论了桥梁估计器如何自然来自$ f $ divergence估计的问题。
translated by 谷歌翻译
A normalizing flow models a complex probability density as an invertible transformation of a simple base density. Flows based on either coupling or autoregressive transforms both offer exact density evaluation and sampling, but rely on the parameterization of an easily invertible elementwise transformation, whose choice determines the flexibility of these models. Building upon recent work, we propose a fully-differentiable module based on monotonic rational-quadratic splines, which enhances the flexibility of both coupling and autoregressive transforms while retaining analytic invertibility. We demonstrate that neural spline flows improve density estimation, variational inference, and generative modeling of images.
translated by 谷歌翻译
我们提出了连续重复的退火流传输蒙特卡洛(CRAFT),该方法结合了顺序的蒙特卡洛(SMC)采样器(本身是退火重要性采样的概括)与使用归一化流量的变异推断。直接训练了归一化的流量,可用于使用KL差异进行每个过渡,以在退火温度之间运输。使用归一化流/SMC近似值估算了此优化目标。我们从概念上展示并使用多个经验示例,这些示例可以改善退火流运输蒙特卡洛(Arbel等,2021),并在其上建造,也可以在基于马尔可夫链蒙特卡洛(MCMC)基于基于的随机归一化流(Wu等人。2020)。通过将工艺纳入粒子MCMC中,我们表明,这种学识渊博的采样器可以在具有挑战性的晶格场理论示例中获得令人印象深刻的准确结果。
translated by 谷歌翻译
标准化流是可易处理的密度模型,可以近似复杂的目标分布,例如物理系统的玻尔兹曼分布。但是,当前的训练流量要么具有寻求模式的行为,要么使用昂贵的MCMC模拟事先生成的目标样本,要么使用具有很高差异的随机损失。为了避免这些问题,我们以退火重要性采样(AIS)增强流量,并最大程度地减少覆盖$ \ alpha $ -divergence的质量,并使用$ \ alpha = 2 $,从而最大程度地减少了重要性的重量差异。我们的方法是流动性Bootstrap(Fab),使用AIS在流动较差的目标区域中生成样品,从而促进了新模式的发现。我们以AIS的最小差异分布来定位,以通过重要性抽样来估计$ \ alpha $ -Divergence。我们还使用优先的缓冲区来存储和重复使用AIS样本。这两个功能显着提高了Fab的性能。我们将FAB应用于复杂的多模式目标,并表明我们可以在以前的方法失败的情况下非常准确地近似它们。据我们所知,我们是第一个仅使用非均衡目标密度学习丙氨酸二肽分子的玻璃体分布,而无需通过分子动力学(MD)模拟生成的样品:FAB与通过最大可能性训练更好的效果,而不是通过最大可能性产生的结果。在MD样品上使用100倍的目标评估。在重新获得重要权重的样品后,我们获得了与地面真相几乎相同的二面角的无偏直方图。
translated by 谷歌翻译
归一化流量是用于在物理系统中建模概率分布的有希望的工具。虽然最先进的流动精确地近似分布和能量,但物理中的应用还需要平滑能量来计算力量和高阶导数。此外,这种密度通常在非琐碎拓扑上定义。最近的一个例子是用于产生肽和小蛋白质的3D结构的Boltzmann发电机。这些生成模型利用内部坐标(Dihedrals,角度和粘合)的空间,这是过度矫戈尔和紧凑的间隔的产物。在这项工作中,我们介绍了一类在紧凑型间隔和高血症上工作的平滑混合转换。混合物转化采用根除方法在实践中反转它们,这已经防止了双向流动训练。为此,我们示出了通过逆函数定理从前向评估计算这种反转的参数梯度和力。我们展示了如此平滑流动的两个优点:它们允许通过力匹配匹配模拟数据,并且可以用作分子动力学模拟的电位。
translated by 谷歌翻译
无似然推理涉及在给定的数据和模拟器模型的情况下推断参数值。模拟器是计算机代码,它采用参数,执行随机计算并输出模拟数据。在这项工作中,我们将模拟器视为一个函数,其输入为(1)参数和(2)伪随机绘制的向量。我们试图推断出以观察结果为条件的所有这些输入。这是具有挑战性的,因为最终的后验可能是高维且涉及强大的依赖性。我们使用归一化流量(柔性参数密度族)近似后验。训练数据是通过具有较大带宽值Epsilon的非似然重要性采样来生成的,这使得目标与先验相似。培训数据通过使用它来训练更新的归一流流程来“蒸馏”。该过程是迭代的,使用更新的流程作为重要性采样建议,并慢慢降低epsilon,从而使目标变得更接近后部。与大多数其他无似然的方法不同,我们避免将数据减少到低维汇总统计数据,因此可以实现更准确的结果。我们在两个充满挑战的排队和流行病学示例中说明了我们的方法。
translated by 谷歌翻译
当我们希望将其用作生成模型时,任何显式的功能表示$ f $都会受到两个主要障碍的阻碍:设计$ f $,以便采样快速,并估计$ z = \ int f $ ^{ - 1} f $集成到1。随着$ f $本身变得复杂,这变得越来越复杂。在本文中,我们表明,当通过让网络代表目标密度的累积分布函数并应用积极的基本定理,可以通过神经网络对一维条件密度进行建模时,可以精确地计算出$ z $。 。我们还得出了一种快速算法,用于通过逆变换方法从产生的表示。通过将这些原理扩展到更高的维度,我们介绍了\ textbf {神经逆变换采样器(NITS)},这是一个新颖的深度学习框架,用于建模和从一般,多维,紧凑的概率密度。 NIT是一个高度表达性的密度估计器,具有端到端的可不同性,快速采样以及精确且廉价的可能性评估。我们通过将其应用于现实,高维密度估计任务来证明NIT的适用性:基于CIFAR-10数据集对基于可能性的生成模型,以及基于基准数据集的UCI套件的密度估计,nits可以在其中产生令人信服的结果或超越或超越或超越或超越或超越或超越或超越或超越。艺术状态。
translated by 谷歌翻译
归一化流量是具有易于易变量的神经网络的可逆性网络,其允许通过最大可能性优化它们的参数来有效地执行。然而,通常假设感兴趣的数据生活在嵌入在高维环境空间中的一些(通常未知)的低维歧管中。结果是自建设中以来的建模不匹配 - 可逆性要求意味着学习分布的高维支持。注射流量,从低到高维空间的映射,旨在通过学习歧管的分布来解决这种差异,但是由此产生的体积变化术语变得更具挑战性。目前方法避免完全使用各种启发式计算该术语,或者假设歧管预先已知,因此不广泛适用。相反,我们提出了两种方法来对模型的参数来促进该术语的梯度,依赖于仔细使用来自数值线性代数的自动分化和技术。两种方法都对将其投射到这种歧管上的数据执行端到端非线性歧管学习和密度估计。我们研究了我们所提出的方法之间的权衡,经验验证我们优于更准确地学习歧管和对应的相应分布忽略音量变化术语的优先级,并显示出对分布外检测的有希望的结果。我们的代码可在https://github.com/layer6ai-labs/rectangular-flows中找到。
translated by 谷歌翻译
基于标准化流的算法是由于有希望的机器学习方法,以便以可以使渐近精确的方式采样复杂的概率分布。在格子场理论的背景下,原则上的研究已经证明了这种方法对标量理论,衡量理论和统计系统的有效性。这项工作开发了能够使用动力学蜕皮的基于流动的理论采样的方法,这对于应用于粒子物理标准模型和许多冷凝物系的晶格场理论研究是必要的。作为一种实践演示,这些方法应用于通过Yukawa相互作用耦合到标量场的无大量交错的费米子的二维理论的现场配置的采样。
translated by 谷歌翻译
The choice of approximate posterior distribution is one of the core problems in variational inference. Most applications of variational inference employ simple families of posterior approximations in order to allow for efficient inference, focusing on mean-field or other simple structured approximations. This restriction has a significant impact on the quality of inferences made using variational methods. We introduce a new approach for specifying flexible, arbitrarily complex and scalable approximate posterior distributions. Our approximations are distributions constructed through a normalizing flow, whereby a simple initial density is transformed into a more complex one by applying a sequence of invertible transformations until a desired level of complexity is attained. We use this view of normalizing flows to develop categories of finite and infinitesimal flows and provide a unified view of approaches for constructing rich posterior approximations. We demonstrate that the theoretical advantages of having posteriors that better match the true posterior, combined with the scalability of amortized variational approaches, provides a clear improvement in performance and applicability of variational inference.
translated by 谷歌翻译
Gumbel-Softmax是对单纯形的连续分布,通常用作离散分布的放松。因为它可以轻松解释和容易重新聚集,所以它可以广泛使用。我们提出了一个模块化,更灵活的可重新聚集分布家族,其中高斯噪声通过可逆函数转化为单热近似。这种可逆函数由修改后的软磁性组成,可以结合具有不同特定目的的各种转换。例如,破坏过程使我们能够将重新聚集技巧扩展到具有无数支持的分布,从而使我们沿非参数模型的分布使用或归一化流量使我们提高了分布的灵活性。我们的构造具有比Gumbel-Softmax(例如封闭形式KL)的理论优势,并且在各种实验中都显着优于它。我们的代码可在https://github.com/cunningham-lab/igr上获得。
translated by 谷歌翻译
计算科学和统计推断中的许多应用都需要计算有关具有未知归一化常数的复杂高维分布以及这些常数的估计。在这里,我们开发了一种基于从简单的基本分布生成样品,沿着速度场生成的流量运输的方法,并沿这些流程线执行平均值。这种非平衡重要性采样(NEIS)策略是直接实施的,可用于具有任意目标分布的计算。在理论方面,我们讨论了如何将速度场定制到目标,并建立所提出的估计器是一个完美的估计器,具有零变化。我们还通过将基本分布映射到目标上,通过传输图绘制了NEIS和方法之间的连接。在计算方面,我们展示了如何使用深度学习来代表神经网络,并将其训练为零方差最佳。这些结果在高维示例上进行了数值说明,我们表明训练速度场可以将NEIS估计量的方差降低至6个数量级,而不是Vanilla估计量。我们还表明,NEIS在这些示例上的表现要比NEAL的退火重要性采样(AIS)更好。
translated by 谷歌翻译
我们引入了一种基于最近邻居回归的活动函数近似的算法。我们的活跃邻居回归器(ANNR)依靠Voronoi-Delaunay框架从计算几何形状到具有恒定估计函数值的空间将空间细分为恒定的函数值,并以一种将函数图的几何形状计入的方式选择新的查询点。我们将最新的最新活动函数近似值(称为defer)视为基于空间的增量矩形分区,为主基线。ANNR解决了由延期中使用的空间细分策略产生的许多局限性。我们提供了我们方法的计算有效实施以及理论停止保证。经验结果表明,Annr优于封闭形式函数和现实示例的基线,例如引力波参数推断和生成模型潜在空间的探索。
translated by 谷歌翻译
归一化的流提供了一种优雅的生成建模方法,可以有效地采样和确切的数据分布的密度评估。但是,当在低维歧管上支持数据分布或具有非平凡的拓扑结构时,当前技术的表现性有显着局限性。我们介绍了一个新的统计框架,用于学习局部正常流的混合物作为数据歧管上的“图表图”。我们的框架增强了最近方法的表现力,同时保留了标准化流的签名特性,他们承认了精确的密度评估。我们通过量化自动编码器(VQ-AE)学习了数据歧管图表的合适地图集,并使用条件流量学习了它们的分布。我们通过实验验证我们的概率框架可以使现有方法更好地模拟数据分布,而不是复杂的歧管。
translated by 谷歌翻译
这项正在进行的工作旨在为统计学习提供统一的介绍,从诸如GMM和HMM等经典模型到现代神经网络(如VAE和扩散模型)缓慢地构建。如今,有许多互联网资源可以孤立地解释这一点或新的机器学习算法,但是它们并没有(也不能在如此简短的空间中)将这些算法彼此连接起来,或者与统计模型的经典文献相连现代算法出现了。同样明显缺乏的是一个单一的符号系统,尽管对那些已经熟悉材料的人(如这些帖子的作者)不满意,但对新手的入境造成了重大障碍。同样,我的目的是将各种模型(尽可能)吸收到一个用于推理和学习的框架上,表明(以及为什么)如何以最小的变化将一个模型更改为另一个模型(其中一些是新颖的,另一些是文献中的)。某些背景当然是必要的。我以为读者熟悉基本的多变量计算,概率和统计以及线性代数。这本书的目标当然不是​​完整性,而是从基本知识到过去十年中极强大的新模型的直线路径或多或少。然后,目标是补充而不是替换,诸如Bishop的\ emph {模式识别和机器学习}之类的综合文本,该文本现在已经15岁了。
translated by 谷歌翻译