我们介绍所谓的深度氏菌法,以基于从交互粒子方法(IPM)计算的数据的物理参数来学习和生成随机动力系统的不变措施。我们利用深神经网络(DNN)的富有效力来表示从给定的输入(源)分布到任意目标分布的样本的变换,既没有假设在闭合形式中的分布函数也不是样本的有限状态空间。在培训中,我们更新网络权重,以最小化输入和目标样本之间的离散Wasserstein距离。为了降低计算成本,我们提出了一种迭代划分和征服(迷你批次内部点)算法,在WasserStein距离中找到最佳转换矩阵。我们展示了数值结果,以证明我们通过混沌流动计算反应扩散前速度在计算反应扩散前速度中产生的随机动力系统不变措施的IPM计算方法的性能。物理参数是一个大的PECL \'等数字,反映了我们兴趣的平流主导地位。
translated by 谷歌翻译
我们研究了一种用于计算聚集模式的正则相互作用粒子方法,以及在两个和三个空间维度中的凯勒 - 渗透(KS)趋化系统的近乎奇异溶液,然后进一步开发出在物理参数变化下学习和生成溶液的Deepparticle(DP)方法。 KS溶液被近似为颗粒的经验度量,这些颗粒是自适应溶液的高梯度部分的。我们利用深神经网络(DNN)的表现力来表示样品从给定的初始(源)分布到有限时间t之前的目标分布的变换,而无需假设变换的可逆性。在训练阶段,我们通过最大程度地减少输入和目标经验措施之间的离散2-wasserstein距离来更新网络权重。为了降低计算成本,我们开发了一种迭代性分裂和诱导算法,以在Wasserstein距离找到最佳的过渡矩阵。我们提出了在层流和混沌流的存在下成功学习和生成KS动力学的DP框架的数值结果。这项工作中的物理参数是化学吸引者的较小扩散率,或者是在以对流为主的状态中流动幅度的相互差异。
translated by 谷歌翻译
在本文中,我们提出了一种无网格的方法来解决完整的Stokes方程,该方程用非线性流变学模拟了冰川运动。我们的方法是受[12]中提出的深里兹方法的启发。我们首先将非牛顿冰流模型的解决方案提出到具有边界约束的变分积分的最小化器中。然后,通过一个深神经网络近似溶液,该网络的损失函数是变异积分加上混合边界条件的软约束。我们的方法不需要引入网格网格或基础函数来评估损失函数,而只需要统一的域和边界采样器。为了解决现实世界缩放中的不稳定性,我们将网络的输入重新归一致,并平衡每个单独边界的正则化因子。最后,我们通过几个数值实验说明了我们方法的性能,包括具有分析解决方案的2D模型,具有真实缩放的Arolla Glacier模型和具有周期性边界条件的3D模型。数值结果表明,我们提出的方法有效地解决了通过非线性流变学引起的冰川建模引起的非牛顿力学。
translated by 谷歌翻译
Recent years have witnessed a growth in mathematics for deep learning--which seeks a deeper understanding of the concepts of deep learning with mathematics, and explores how to make it more robust--and deep learning for mathematics, where deep learning algorithms are used to solve problems in mathematics. The latter has popularised the field of scientific machine learning where deep learning is applied to problems in scientific computing. Specifically, more and more neural network architectures have been developed to solve specific classes of partial differential equations (PDEs). Such methods exploit properties that are inherent to PDEs and thus solve the PDEs better than classical feed-forward neural networks, recurrent neural networks, and convolutional neural networks. This has had a great impact in the area of mathematical modeling where parametric PDEs are widely used to model most natural and physical processes arising in science and engineering, In this work, we review such methods and extend them for parametric studies as well as for solving the related inverse problems. We equally proceed to show their relevance in some industrial applications.
translated by 谷歌翻译
物理信息的神经网络(PINN)是神经网络(NNS),它们作为神经网络本身的组成部分编码模型方程,例如部分微分方程(PDE)。如今,PINN是用于求解PDE,分数方程,积分分化方程和随机PDE的。这种新颖的方法已成为一个多任务学习框架,在该框架中,NN必须在减少PDE残差的同时拟合观察到的数据。本文对PINNS的文献进行了全面的综述:虽然该研究的主要目标是表征这些网络及其相关的优势和缺点。该综述还试图将出版物纳入更广泛的基于搭配的物理知识的神经网络,这些神经网络构成了香草·皮恩(Vanilla Pinn)以及许多其他变体,例如物理受限的神经网络(PCNN),各种HP-VPINN,变量HP-VPINN,VPINN,VPINN,变体。和保守的Pinn(CPINN)。该研究表明,大多数研究都集中在通过不同的激活功能,梯度优化技术,神经网络结构和损耗功能结构来定制PINN。尽管使用PINN的应用范围广泛,但通过证明其在某些情况下比有限元方法(FEM)等经典数值技术更可行的能力,但仍有可能的进步,最著名的是尚未解决的理论问题。
translated by 谷歌翻译
These notes were compiled as lecture notes for a course developed and taught at the University of the Southern California. They should be accessible to a typical engineering graduate student with a strong background in Applied Mathematics. The main objective of these notes is to introduce a student who is familiar with concepts in linear algebra and partial differential equations to select topics in deep learning. These lecture notes exploit the strong connections between deep learning algorithms and the more conventional techniques of computational physics to achieve two goals. First, they use concepts from computational physics to develop an understanding of deep learning algorithms. Not surprisingly, many concepts in deep learning can be connected to similar concepts in computational physics, and one can utilize this connection to better understand these algorithms. Second, several novel deep learning algorithms can be used to solve challenging problems in computational physics. Thus, they offer someone who is interested in modeling a physical phenomena with a complementary set of tools.
translated by 谷歌翻译
神经网络的经典发展主要集中在有限维欧基德空间或有限组之间的学习映射。我们提出了神经网络的概括,以学习映射无限尺寸函数空间之间的运算符。我们通过一类线性积分运算符和非线性激活函数的组成制定运营商的近似,使得组合的操作员可以近似复杂的非线性运算符。我们证明了我们建筑的普遍近似定理。此外,我们介绍了四类运算符参数化:基于图形的运算符,低秩运算符,基于多极图形的运算符和傅里叶运算符,并描述了每个用于用每个计算的高效算法。所提出的神经运营商是决议不变的:它们在底层函数空间的不同离散化之间共享相同的网络参数,并且可以用于零击超分辨率。在数值上,与现有的基于机器学习的方法,达西流程和Navier-Stokes方程相比,所提出的模型显示出卓越的性能,而与传统的PDE求解器相比,与现有的基于机器学习的方法有关的基于机器学习的方法。
translated by 谷歌翻译
在过去的十年中,在许多工程领域,包括自动驾驶汽车,医疗诊断和搜索引擎,甚至在艺术创作中,神经网络(NNS)已被证明是极有效的工具。确实,NN通常果断地超过传统算法。直到最近才引起重大兴趣的一个领域是使用NNS设计数值求解器,尤其是用于离散的偏微分方程。最近的几篇论文考虑使用NNS来开发多机方法,这些方法是解决离散的偏微分方程和其他稀疏矩阵问题的领先计算工具。我们扩展了这些新想法,重点关注所谓的放松操作员(也称为Smoothers),这是Multigrid算法的重要组成部分,在这种情况下尚未受到很多关注。我们探索了一种使用NNS学习带有随机系数的扩散算子的放松参数的方法,用于雅各比类型的Smoothers和4Color Gaussseidel Smoothers。后者的产量异常高效且易于使连续的放松(SOR)SmoOthors平行。此外,这项工作表明,使用两个网格方法在相对较小的网格上学习放松参数,而Gelfand的公式可以轻松实现。这些方法有效地产生了几乎最佳的参数,从而显着提高了大网格上的Multigrid算法的收敛速率。
translated by 谷歌翻译
This paper proposes Friedrichs learning as a novel deep learning methodology that can learn the weak solutions of PDEs via a minmax formulation, which transforms the PDE problem into a minimax optimization problem to identify weak solutions. The name "Friedrichs learning" is for highlighting the close relationship between our learning strategy and Friedrichs theory on symmetric systems of PDEs. The weak solution and the test function in the weak formulation are parameterized as deep neural networks in a mesh-free manner, which are alternately updated to approach the optimal solution networks approximating the weak solution and the optimal test function, respectively. Extensive numerical results indicate that our mesh-free method can provide reasonably good solutions to a wide range of PDEs defined on regular and irregular domains in various dimensions, where classical numerical methods such as finite difference methods and finite element methods may be tedious or difficult to be applied.
translated by 谷歌翻译
本文介绍了一种基于Krnet(ADDA-KR)的自适应深度近似策略,用于求解稳态Fokker-Planck(F-P)方程。 F-P方程通常是高维度和在无限域上定义的,这限制了基于传统网格的数值方法的应用。通过Knothe-Rosenblatt重新排列,我们的新提出的基于流的生成模型称为KrNet,提供了一种概率密度函数的家族,以作为Fokker-Planck方程的有效解决方案候选者,这与传统的计算方法较弱的维度依赖性较弱并且可以有效地估计一般的高维密度函数。为了获得用于F-P方程的近似的有效随机搭配点,我们开发了一种自适应采样过程,其中使用每次迭代的近似密度函数来迭代地生成样本。我们介绍了ADDA-KR的一般框架,验证了其准确性并通过数值实验展示了其效率。
translated by 谷歌翻译
求解高维局部微分方程是经济学,科学和工程的反复挑战。近年来,已经开发了大量的计算方法,其中大多数依赖于蒙特卡罗采样和基于深度学习的近似的组合。对于椭圆形和抛物线问题,现有方法可以广泛地分类为依赖于$ \ Texit {向后随机微分方程} $(BSDES)和旨在最小化回归$ L ^ 2 $ -Error( $ \ textit {物理信息的神经网络} $,pinns)。在本文中,我们审查了文献,并提出了一种基于新型$ \ Texit的方法{扩散丢失} $,在BSDES和Pinns之间插值。我们的贡献为对高维PDE的数值方法的统一理解开辟了门,以及结合BSDES和PINNS强度的实施方式。我们还向特征值问题提供概括并进行广泛的数值研究,包括计算非线性SCHR \“odinger运营商的地面状态和分子动态相关的委托功能的计算。
translated by 谷歌翻译
标准的神经网络可以近似一般的非线性操作员,要么通过数学运算符的组合(例如,在对流 - 扩散反应部分微分方程中)的组合,要么仅仅是黑匣子,例如黑匣子,例如一个系统系统。第一个神经操作员是基于严格的近似理论于2019年提出的深层操作员网络(DeepOnet)。从那时起,已经发布了其他一些较少的一般操作员,例如,基于图神经网络或傅立叶变换。对于黑匣子系统,对神经操作员的培训仅是数据驱动的,但是如果知道管理方程式可以在培训期间将其纳入损失功能,以开发物理知识的神经操作员。神经操作员可以用作设计问题,不确定性量化,自主系统以及几乎任何需要实时推断的应用程序中的代替代物。此外,通过将它们与相对轻的训练耦合,可以将独立的预训练deponets用作复杂多物理系统的组成部分。在这里,我们介绍了Deponet,傅立叶神经操作员和图神经操作员的评论,以及适当的扩展功能扩展,并突出显示它们在计算机械师中的各种应用中的实用性,包括多孔媒体,流体力学和固体机制, 。
translated by 谷歌翻译
在科学计算中,在科学计算中的许多应用中出现了从样本点近似平滑,多元功能的问题,在科学和工程的计算不确定性量化(UQ)中。在这些应用中,目标函数可以代表参数化部分微分方程(PDE)的所需量。由于解决此类问题的成本很高,在解决每个样本中通过求解PDE计算,样本效率是有关这些应用的关键。最近,越来越多地关注深度神经网络(DNN)和深度学习(DL)从数据中学习此类功能。在这项工作中,我们提出了一种自适应抽样策略,CAS4DL(基督佛尔自适应采样用于深度学习),以提高DL的样本效率用于多元功能近似。我们的新方法基于将DNN的第二至最后一层解释为该层上节点定义的函数词典。从这个角度来看,我们定义了一种自适应采样策略,该策略是由最近提出的线性近似方案提出的自适应采样方案激励的,其中该词典跨越的子空间的基督教词函数随机绘制了样品。我们提出了比较CAS4DL与标准蒙特卡洛(MC)采样的数值实验。我们的结果表明,CAS4DL通常可以在达到给定准确性所需的样品数量中节省大量,尤其是在平滑激活功能的情况下,与MC相比,它显示出更好的稳定性。因此,这些结果是将DL完全适应科学计算应用的有希望的一步。
translated by 谷歌翻译
这本数字本书包含在物理模拟的背景下与深度学习相关的一切实际和全面的一切。尽可能多,所有主题都带有Jupyter笔记本的形式的动手代码示例,以便快速入门。除了标准的受监督学习的数据中,我们将看看物理丢失约束,更紧密耦合的学习算法,具有可微分的模拟,以及加强学习和不确定性建模。我们生活在令人兴奋的时期:这些方法具有从根本上改变计算机模拟可以实现的巨大潜力。
translated by 谷歌翻译
连续数据的优化问题出现在,例如强大的机器学习,功能数据分析和变分推理。这里,目标函数被给出为一个(连续)索引目标函数的系列 - 相对于概率测量集成的族聚集。这些问题通常可以通过随机优化方法解决:在随机切换指标执行关于索引目标函数的优化步骤。在这项工作中,我们研究了随机梯度下降算法的连续时间变量,以进行连续数据的优化问题。该所谓的随机梯度过程包括最小化耦合与确定索引的连续时间索引过程的索引目标函数的梯度流程。索引过程是例如,反射扩散,纯跳跃过程或紧凑空间上的其他L evy过程。因此,我们研究了用于连续数据空间的多种采样模式,并允许在算法的运行时进行模拟或流式流的数据。我们分析了随机梯度过程的近似性质,并在恒定下进行了长时间行为和遍历的学习率。我们以噪声功能数据的多项式回归问题以及物理知识的神经网络在多项式回归问题中结束了随机梯度过程的适用性。
translated by 谷歌翻译
Optimal Transport(OT)提供了一个多功能框架,以几何有意义的方式比较复杂的数据分布。计算Wasserstein距离和概率措施之间的大地测量方法的传统方法需要网络依赖性域离散化,并且受差异性的诅咒。我们提出了Geonet,这是一个网状不变的深神经操作员网络,该网络从输入对的初始和终端分布对到Wasserstein Geodesic连接两个端点分布的非线性映射。在离线训练阶段,Geonet了解了以耦合PDE系统为特征的原始和双空间中OT问题动态提出的鞍点最佳条件。随后的推理阶段是瞬时的,可以在在线学习环境中进行实时预测。我们证明,Geonet在模拟示例和CIFAR-10数据集上达到了与标准OT求解器的可比测试精度,其推断阶段计算成本大大降低了。
translated by 谷歌翻译
本文提出了一个无网格的计算框架和机器学习理论,用于在未知的歧管上求解椭圆形PDE,并根据扩散地图(DM)和深度学习确定点云。 PDE求解器是作为监督的学习任务制定的,以解决最小二乘回归问题,该问题施加了近似PDE的代数方程(如果适用)。该代数方程涉及通过DM渐近扩展获得的图形拉平型矩阵,该基质是二阶椭圆差差算子的一致估计器。最终的数值方法是解决受神经网络假设空间解决方案的高度非凸经验最小化问题。在体积良好的椭圆PDE设置中,当假设空间由具有无限宽度或深度的神经网络组成时,我们表明,经验损失函数的全球最小化器是大型训练数据极限的一致解决方案。当假设空间是一个两层神经网络时,我们表明,对于足够大的宽度,梯度下降可以识别经验损失函数的全局最小化器。支持数值示例证明了解决方案的收敛性,范围从具有低和高共限度的简单歧管到具有和没有边界的粗糙表面。我们还表明,所提出的NN求解器可以在具有概括性误差的新数据点上稳健地概括PDE解决方案,这些误差几乎与训练错误相同,从而取代了基于Nystrom的插值方法。
translated by 谷歌翻译
罕见事件计算研究中的一个中心对象是委员会函数。尽管计算成本高昂,但委员会功能编码涉及罕见事件的过程的完整机械信息,包括反应率和过渡状态合奏。在过渡路径理论(TPT)的框架下,最近的工作[1]提出了一种算法,其中反馈回路融合了一个神经网络,该神经网络将委员会功能建模为重要性采样,主要是伞形采样,该摘要收集了自适应训练所需的数据。在这项工作中,我们显示需要进行其他修改以提高算法的准确性。第一个修改增加了监督学习的要素,这使神经网络通过拟合从短分子动力学轨迹获得的委员会值的样本均值估计来改善其预测。第二个修改用有限的温度字符串(FTS)方法代替了基于委员会的伞采样,该方法可以在过渡途径的区域中进行均匀抽样。我们测试了具有非凸电势能的低维系统的修改,可以通过分析或有限元方法找到参考解决方案,并显示如何将监督学习和FTS方法组合在一起,从而准确地计算了委员会功能和反应速率。我们还为使用FTS方法的算法提供了错误分析,使用少数样品在训练过程中可以准确估算反应速率。然后将这些方法应用于未知参考溶液的分子系统,其中仍然可以获得委员会功能和反应速率的准确计算。
translated by 谷歌翻译
深度学习表明了视觉识别和某些人工智能任务的成功应用。深度学习也被认为是一种强大的工具,具有近似功能的高度灵活性。在本工作中,设计具有所需属性的功能,以近似PDE的解决方案。我们的方法基于后验误差估计,其中解决了错误定位以在神经网络框架内制定误差估计器的伴随问题。开发了一种高效且易于实现的算法,以通过采用双重加权剩余方法来获得多个目标功能的后验误差估计,然后使用神经网络计算原始和伴随解决方案。本研究表明,即使具有相对较少的训练数据,这种基于数据驱动的模型的学习具有卓越的感兴趣量的近似。用数值测试实施例证实了新颖的算法发展。证明了在浅神经网络上使用深神经网络的优点,并且还呈现了收敛增强技术
translated by 谷歌翻译
Despite great progress in simulating multiphysics problems using the numerical discretization of partial differential equations (PDEs), one still cannot seamlessly incorporate noisy data into existing algorithms, mesh generation remains complex, and high-dimensional problems governed by parameterized PDEs cannot be tackled. Moreover, solving inverse problems with hidden physics is often prohibitively expensive and requires different formulations and elaborate computer codes. Machine learning has emerged as a promising alternative, but training deep neural networks requires big data, not always available for scientific problems. Instead, such networks can be trained from additional information obtained by enforcing the physical laws (for example, at random points in the continuous space-time domain). Such physics-informed learning integrates (noisy) data and mathematical models, and implements them through neural networks or other kernel-based regression networks. Moreover, it may be possible to design specialized network architectures that automatically satisfy some of the physical invariants for better accuracy, faster training and improved generalization. Here, we review some of the prevailing trends in embedding physics into machine learning, present some of the current capabilities and limitations and discuss diverse applications of physics-informed learning both for forward and inverse problems, including discovering hidden physics and tackling high-dimensional problems.
translated by 谷歌翻译