标准化流量是一类深生成模型,比传统的蒙特卡洛模拟更有效地为晶格场理论提供了有希望的途径。在这项工作中,我们表明,随机归一化流的理论框架,其中神经网络层与蒙特卡洛更新结合在一起,与基于jarzynski平等的不平衡模拟的基础相同,这些模拟最近已被部署以计算计算晶格计理论的自由能差异。我们制定了一种策略,以优化这种扩展类别的生成模型的效率和应用程序的示例。
translated by 谷歌翻译
基于标准化流的算法是由于有希望的机器学习方法,以便以可以使渐近精确的方式采样复杂的概率分布。在格子场理论的背景下,原则上的研究已经证明了这种方法对标量理论,衡量理论和统计系统的有效性。这项工作开发了能够使用动力学蜕皮的基于流动的理论采样的方法,这对于应用于粒子物理标准模型和许多冷凝物系的晶格场理论研究是必要的。作为一种实践演示,这些方法应用于通过Yukawa相互作用耦合到标量场的无大量交错的费米子的二维理论的现场配置的采样。
translated by 谷歌翻译
我们提供了对神经马尔可夫链蒙特卡罗模拟中的自相关的深度研究,该版本的传统大都会算法采用神经网络来提供独立的建议。我们使用二维ising模型说明了我们的想法。我们提出了几次自相关时间的估算,其中一些灵感来自于为大都市独立采样器导出的分析结果,我们将其与逆温度$ \ Beta $的函数进行比较和研究。基于我们提出替代损失功能,并研究其对自动系列的影响。此外,我们调查对自动相关时间的神经网络培训过程中强加系统对称($ Z_2 $和/或翻译)的影响。最终,我们提出了一种包含局部热浴更新的方案。讨论了上述增强功能的影响为16美元16美元旋转系统。我们的调查结果摘要可以作为实施更复杂模型的神经马尔可夫链蒙特卡罗模拟的指导。
translated by 谷歌翻译
差异化地图是现场转换,其雅可比决定簇精确地取消了该动作中的交互术语,从而通过对样本的分布的确定性转换提供理论的表示。最近,由Albergo,Kanwar和Shanahan [Arxiv:1904.12072的原则上的原则研究证明了差异地图的近似可以是一类可逆的,可视的,称为\ TexitIT的神经模型的机器学习{归一化流量}。通过确保可以有效地计算Jacobian决定蛋白,可以通过从简单的分布和通过网络传递它们来执行来自感兴趣理论的渐近精确采样。从理论上的角度来看,这种方法可能比传统马尔可夫链蒙特卡罗采样技术变得更加效率,自相关性严重减少采样效率,因为一种接近连续箱限制。主要警告是,尚未理解模型的规模和训练成本如何规模。作为第一步,我们使用二维$ \ PHI ^ 4 $进行了探索性缩放研究,最高可达20美元$ 20 $莱迪思网站。虽然我们的研究范围仅限于特定的模型架构和培训算法,但初始结果绘制了一个有趣的画面,其中培训成本确实非常快。我们描述了较差的缩放候选人解释,并概述了我们的意图,以澄清未来的工作情况。
translated by 谷歌翻译
我们研究了重整化组(RG)和深神经网络之间的类比,其中随后的神经元层类似于沿RG的连续步骤。特别地,我们通过在抽取RG下明确计算在DIMIMATION RG下的一个和二维insing模型中的相对熵或kullback-leibler发散,以及作为深度的函数的前馈神经网络中的相对熵或kullback-leibler发散。我们观察到单调增加到参数依赖性渐近值的定性相同的行为。在量子场理论方面,单调增加证实了相对熵和C定理之间的连接。对于神经网络,渐近行为可能对机器学习中的各种信息最大化方法以及解开紧凑性和概括性具有影响。此外,虽然我们考虑的二维误操作模型和随机神经网络都表现出非差异临界点,但是对任何系统的相位结构的相对熵看起来不敏感。从这个意义上讲,需要更精细的探针以充分阐明这些模型中的信息流。
translated by 谷歌翻译
这项工作介绍了使用伪层作为费米子决定因素的随机估计量的费米子晶状体理论中基于流动采样的量规均值架构。这是最先进的晶格场理论计算中的默认方法,这使得对流向模型在QCD等理论的实际应用至关重要。还概述了通过标准技术(例如/奇数预处理和HasenBusch分解)来改进基于流的采样方法的方法。提供了二维U(1)和SU(3)具有$ n_f = 2 $ FERMIONS的量规理论的数值演示。
translated by 谷歌翻译
We apply the Hierarchical Autoregressive Neural (HAN) network sampling algorithm to the two-dimensional $Q$-state Potts model and perform simulations around the phase transition at $Q=12$. We quantify the performance of the approach in the vicinity of the first-order phase transition and compare it with that of the Wolff cluster algorithm. We find a significant improvement as far as the statistical uncertainty is concerned at a similar numerical effort. In order to efficiently train large neural networks we introduce the technique of pre-training. It allows to train some neural networks using smaller system sizes and then employing them as starting configurations for larger system sizes. This is possible due to the recursive construction of our hierarchical approach. Our results serve as a demonstration of the performance of the hierarchical approach for systems exhibiting bimodal distributions. Additionally, we provide estimates of the free energy and entropy in the vicinity of the phase transition with statistical uncertainties of the order of $10^{-7}$ for the former and $10^{-3}$ for the latter based on a statistics of $10^6$ configurations.
translated by 谷歌翻译
Normalizing flows provide a general mechanism for defining expressive probability distributions, only requiring the specification of a (usually simple) base distribution and a series of bijective transformations. There has been much recent work on normalizing flows, ranging from improving their expressive power to expanding their application. We believe the field has now matured and is in need of a unified perspective. In this review, we attempt to provide such a perspective by describing flows through the lens of probabilistic modeling and inference. We place special emphasis on the fundamental principles of flow design, and discuss foundational topics such as expressive power and computational trade-offs. We also broaden the conceptual framing of flows by relating them to more general probability transformations. Lastly, we summarize the use of flows for tasks such as generative modeling, approximate inference, and supervised learning.
translated by 谷歌翻译
在随机抽样方法中,马尔可夫链蒙特卡洛算法是最重要的。在随机行走都市方案中,我们利用分析方法和数值方法的结合研究了它们的收敛性能。我们表明,偏离目标稳态分布的偏差特征是定位过渡的函数,这是定义随机步行的尝试跳跃的特征长度。该过渡大大改变了误差,而误差是通过不完整的收敛引入的,并区分了两个方案,其中弛豫机制分别受扩散和排斥分别受到限制。
translated by 谷歌翻译
了解复杂分子过程的动力学通常与长期稳定状态之间不经常过渡的研究有关。进行此类罕见事件采样的标准方法是使用轨迹空间中的随机步行生成过渡路径的集合。然而,这伴随着随后访问的路径之间的较强相关性和在平行采样过程中的内在难度之间存在很强的相关性。我们建议基于神经网络生成的配置的过渡路径采样方案。这些是采用归一化流量获得的,即能够从给定分布中生成非相关样品的神经网络类。使用这种方法,不仅删除了访问的路径之间的相关性,而且采样过程很容易平行。此外,通过调节归一化流,可以将配置的采样转向感兴趣的区域。我们表明,这允许解决过渡区域的热力学和动力学。
translated by 谷歌翻译
我们为致密氢的方程式提供了基于深层生成模型的变化自由能方法。我们采用归一化流网络来对质子玻尔兹曼分布和费米子神经网络进行建模,以在给定的质子位置对电子波函数进行建模。通过共同优化两个神经网络,我们达到了与先前的电子蒙特卡洛计算相当的变异自由能。我们的结果表明,与先前的蒙特卡洛和从头算分子动力学数据相比,行星条件下的氢甚至更浓密,这远离经验化学模型的预测。获得可靠的密集氢状态方程,尤其是直接进入熵和自由能,为行星建模和高压物理学研究开辟了新的机会。
translated by 谷歌翻译
我们提出了一种连续的标准化流量,用于从物理学中量子域理论的高尺寸概率分布采样。与迄今为止此任务的深度架构相比,我们的提案基于浅设计并包含问题的对称性。我们在$ \ PHI ^ 4 $理论上测试我们的模型,表明它系统地优于采样效率的REALNV基准,其两个增加对于较大格子的差异。在我们考虑的最大格子上,大小为32美元,我们改善了一个关键的公制,有效的样本量,从1%到66%w.r.t.Realnvp基线。
translated by 谷歌翻译
量子哈密顿学习和量子吉布斯采样的双重任务与物理和化学中的许多重要问题有关。在低温方案中,这些任务的算法通常会遭受施状能力,例如因样本或时间复杂性差而遭受。为了解决此类韧性,我们将量子自然梯度下降的概括引入了参数化的混合状态,并提供了稳健的一阶近似算法,即量子 - 固定镜下降。我们使用信息几何学和量子计量学的工具证明了双重任务的数据样本效率,因此首次将经典Fisher效率的开创性结果推广到变异量子算法。我们的方法扩展了以前样品有效的技术,以允许模型选择的灵活性,包括基于量子汉密尔顿的量子模型,包括基于量子的模型,这些模型可能会规避棘手的时间复杂性。我们的一阶算法是使用经典镜下降二元性的新型量子概括得出的。两种结果都需要特殊的度量选择,即Bogoliubov-Kubo-Mori度量。为了从数值上测试我们提出的算法,我们将它们的性能与现有基准进行了关于横向场ISING模型的量子Gibbs采样任务的现有基准。最后,我们提出了一种初始化策略,利用几何局部性来建模状态的序列(例如量子 - 故事过程)的序列。我们从经验上证明了它在实际和想象的时间演化的经验上,同时定义了更广泛的潜在应用。
translated by 谷歌翻译
我们开发了一种多尺度方法,以从实验或模拟中观察到的物理字段或配置的数据集估算高维概率分布。通过这种方式,我们可以估计能量功能(或哈密顿量),并有效地在从统计物理学到宇宙学的各个领域中生成多体系统的新样本。我们的方法 - 小波条件重新归一化组(WC-RG) - 按比例进行估算,以估算由粗粒磁场来调节的“快速自由度”的条件概率的模型。这些概率分布是由与比例相互作用相关的能量函数建模的,并以正交小波为基础表示。 WC-RG将微观能量函数分解为各个尺度上的相互作用能量之和,并可以通过从粗尺度到细度来有效地生成新样品。近相变,它避免了直接估计和采样算法的“临界减速”。理论上通过结合RG和小波理论的结果来解释这一点,并为高斯和$ \ varphi^4 $字段理论进行数值验证。我们表明,多尺度WC-RG基于能量的模型比局部电位模型更通用,并且可以在所有长度尺度上捕获复杂的多体相互作用系统的物理。这是针对反映宇宙学中暗物质分布的弱透镜镜头的,其中包括与长尾概率分布的长距离相互作用。 WC-RG在非平衡系统中具有大量的潜在应用,其中未知基础分布{\ it先验}。最后,我们讨论了WC-RG和深层网络体系结构之间的联系。
translated by 谷歌翻译
Normalizing Flows are generative models which produce tractable distributions where both sampling and density evaluation can be efficient and exact. The goal of this survey article is to give a coherent and comprehensive review of the literature around the construction and use of Normalizing Flows for distribution learning. We aim to provide context and explanation of the models, review current state-of-the-art literature, and identify open questions and promising future directions.
translated by 谷歌翻译
我们介绍了Netket的版本3,机器学习工具箱适用于许多身体量子物理学。Netket围绕神经网络量子状态构建,并为其评估和优化提供有效的算法。这个新版本是基于JAX的顶部,一个用于Python编程语言的可差分编程和加速的线性代数框架。最重要的新功能是使用机器学习框架的简明符号来定义纯Python代码中的任意神经网络ANS \“凝固的可能性,这允许立即编译以及渐变的隐式生成自动化。Netket 3还带来了GPU和TPU加速器的支持,对离散对称组的高级支持,块以缩放多程度的自由度,Quantum动态应用程序的驱动程序,以及改进的模块化,允许用户仅使用部分工具箱是他们自己代码的基础。
translated by 谷歌翻译
Quasiparticle有效质量$ M ^ \ AST $互动电子是Fermi液体理论中的基本量。然而,在几十年后,均匀电子气体的有效质量仍然难以捉摸。新开发的神经规范变换方法Arxiv:2105.08644提供了通过直接计算低温热熵来提取电子气体的有效质量的原则方法。该方法使用两种生成神经网络模拟变分许多电子密度矩阵:用于电坐标的动量占用和标准化流动的自回归模型。我们的计算揭示了二维旋转偏振电子气中有效质量的抑制,其比在低密度强耦合区域中的先前报告更加明显。该预测要求在二维电子气体实验中验证。
translated by 谷歌翻译
数据和标签的联合分布的KL差异目标允许在随机变异推断的一个保护伞下统一监督的学习和变异自动编码器(VAE)。统一激发了扩展的监督方案,该方案允许计算神经网络模型的合适性P值。通过神经网络摊销的条件归一化流在这种结构中至关重要。我们讨论了它们如何允许在产品空间上共同定义的后代定义的覆盖范围,例如$ \ mathbb {r}^n \ times \ times \ mathcal {s}^m $,它包含在方向上的海报。最后,系统的不确定性自然包含在变化观点中。在经典的可能性方法或其他机器学习模型中,(1)系统,(2)覆盖范围和(3)拟合优度的成分通常并非全部可用,或者至少有一个受到严格限制。相比之下,拟议的扩展监督培训和摊销标准化流量可容纳所有三个,用于在产品空间上定义的任意统计分布的变异推理,例如$ \ mathbb {r}^n \ times \ times \ ldots \ ldots \ times \ times \ mathcal {s}^m {s}^m $,没有基本数据复杂性的基本障碍。因此,它具有当代(Astro-)粒子物理学家的统计工具箱的巨大潜力。
translated by 谷歌翻译
这项正在进行的工作旨在为统计学习提供统一的介绍,从诸如GMM和HMM等经典模型到现代神经网络(如VAE和扩散模型)缓慢地构建。如今,有许多互联网资源可以孤立地解释这一点或新的机器学习算法,但是它们并没有(也不能在如此简短的空间中)将这些算法彼此连接起来,或者与统计模型的经典文献相连现代算法出现了。同样明显缺乏的是一个单一的符号系统,尽管对那些已经熟悉材料的人(如这些帖子的作者)不满意,但对新手的入境造成了重大障碍。同样,我的目的是将各种模型(尽可能)吸收到一个用于推理和学习的框架上,表明(以及为什么)如何以最小的变化将一个模型更改为另一个模型(其中一些是新颖的,另一些是文献中的)。某些背景当然是必要的。我以为读者熟悉基本的多变量计算,概率和统计以及线性代数。这本书的目标当然不是​​完整性,而是从基本知识到过去十年中极强大的新模型的直线路径或多或少。然后,目标是补充而不是替换,诸如Bishop的\ emph {模式识别和机器学习}之类的综合文本,该文本现在已经15岁了。
translated by 谷歌翻译
我们提出了一种新型的机器学习方法,用于从晶格量子场理论的高维概率分布中取样。我们的建议不是迄今为止用于此任务的深层体系结构,而是基于单个神经效果层,并结合了问题的完整对称性。我们在$ \ phi^4 $理论上测试了我们的模型,这表明它系统地优于先前提出的采样效率基于流动的方法,并且对于较大的晶格而言,改进尤其明显。与以前的基线模型相比,我们将关键指标(有效样本量)提高了,从1%到91%,尺寸为$ 32 \ times 32 $。我们还证明,我们的模型可以成功学习一个连续的理论家庭,并且可以将学习结果转移到更大的晶格中。与传统的基于MCMC的方法相比,这种概括能力进一步突出了机器学习方法的潜在优势。
translated by 谷歌翻译