在本文中,我们通过深神经网络倾斜地研究了(2 + 1)-dimensional KP-I等式和旋转非线性SCHR \“odinger(Spin-NLS)方程的数据驱动Rational孤子的前向问题。此外,通过深度学习研究了(2 + 1)-Dimensional KP-I等式和Spin-NLS方程的逆问题。数据驱动前向前逆问题的主要思想是使用深神经网络激活函数通过优化与所考虑的非线性波动方程相关的所选损耗函数来近似考虑(2 + 1) - 二维非线性波方程的解。
translated by 谷歌翻译
我们介绍了一种深度神经网络学习方案,以了解Soliton演化方程的B \“Acklund变换(BTS)以及基于已知BTS的数据驱动孤子方程发现增强的深度学习方案。第一个方案利用一些解决方案(或Soliton方程)学习Sine-Gordon方程的数据驱动BT的信息,以及在散焦(聚焦)MKDV方程和KDV方程之间的复杂和实际Miura变换,以及通过数据驱动的MKDV方程发现Miura变换。第二个深度学习方案使用显式/隐式BTS生成高阶孤子,以训练MKDV和Sine-Gordon方程的数据驱动的发现,其中高阶解决方案信息对于增强型更强大倾斜孤子方程具有更高的准确性。
translated by 谷歌翻译
作为深度学习的典型{Application},物理知识的神经网络(PINN){已成功用于找到部分微分方程(PDES)的数值解决方案(PDES),但是如何提高有限准确性仍然是PINN的巨大挑战。 。在这项工作中,我们引入了一种新方法,对称性增强物理学知情的神经网络(SPINN),其中PDE的谎言对称性诱导的不变表面条件嵌入PINN的损失函数中,以提高PINN的准确性。我们分别通过两组十组独立数值实验来测试SPINN的有效性,分别用于热方程,Korteweg-De Vries(KDV)方程和潜在的汉堡{方程式},这表明Spinn的性能比PINN更好,而PINN的训练点和更简单的结构都更好神经网络。此外,我们讨论了Spinn的计算开销,以PINN的相对计算成本,并表明Spinn的训练时间没有明显的增加,甚至在某些情况下还不是PINN。
translated by 谷歌翻译
在本文中,我们提出了用于求解非线性微分方程(NDE)的神经网络的物理知情训练(PIAT)。众所周知,神经网络的标准培训会导致非平滑函数。对抗训练(AT)是针对对抗攻击的既定防御机制,这也可能有助于使解决方案平滑。 AT包括通过扰动增强训练迷你批量,使网络输出不匹配所需的输出对手。与正式AT仅依靠培训数据不同,在这里,我们使用对抗网络体系结构中的自动差异来以非线性微分方程的形式编码管理物理定律。我们将PIAT与PIAT进行了比较,以指示我们方法在求解多达10个维度方面的有效性。此外,我们提出了重量衰减和高斯平滑,以证明PIAT的优势。代码存储库可从https://github.com/rohban-lab/piat获得。
translated by 谷歌翻译
Deep learning has achieved remarkable success in diverse applications; however, its use in solving partial differential equations (PDEs) has emerged only recently. Here, we present an overview of physics-informed neural networks (PINNs), which embed a PDE into the loss of the neural network using automatic differentiation. The PINN algorithm is simple, and it can be applied to different types of PDEs, including integro-differential equations, fractional PDEs, and stochastic PDEs. Moreover, from the implementation point of view, PINNs solve inverse problems as easily as forward problems. We propose a new residual-based adaptive refinement (RAR) method to improve the training efficiency of PINNs. For pedagogical reasons, we compare the PINN algorithm to a standard finite element method. We also present a Python library for PINNs, DeepXDE, which is designed to serve both as an education tool to be used in the classroom as well as a research tool for solving problems in computational science and engineering. Specifically, DeepXDE can solve forward problems given initial and boundary conditions, as well as inverse problems given some extra measurements. DeepXDE supports complex-geometry domains based on the technique of constructive solid geometry, and enables the user code to be compact, resembling closely the mathematical formulation. We introduce the usage of DeepXDE and its customizability, and we also demonstrate the capability of PINNs and the user-friendliness of DeepXDE for five different examples. More broadly, DeepXDE contributes to the more rapid development of the emerging Scientific Machine Learning field.
translated by 谷歌翻译
在本文中,我们开发了一种物理知识的神经网络(PINN)模型,用于具有急剧干扰初始条件的抛物线问题。作为抛物线问题的一个示例,我们考虑具有点(高斯)源初始条件的对流 - 分散方程(ADE)。在$ d $维的ADE中,在初始条件衰减中的扰动随时间$ t $ as $ t^{ - d/2} $,这可能会在Pinn解决方案中造成较大的近似错误。 ADE溶液中的局部大梯度使该方程的残余效率低下的(PINN)拉丁高立方体采样(常见)。最后,抛物线方程的PINN解对损耗函数中的权重选择敏感。我们提出了一种归一化的ADE形式,其中溶液的初始扰动不会降低幅度,并证明该归一化显着降低了PINN近似误差。我们提出了与通过其他方法选择的权重相比,损耗函数中的权重标准更准确。最后,我们提出了一种自适应采样方案,该方案可显着减少相同数量的采样(残差)点的PINN溶液误差。我们证明了提出的PINN模型的前进,反向和向后ADE的准确性。
translated by 谷歌翻译
地震波的频域模拟在地震反演中起着重要作用,但在大型模型中仍然具有挑战性。作为有效的深度学习方法,最近提出的物理知识的神经网络(PINN)在解决广泛的偏微分方程(PDES)方面取得了成功的应用,并且在这方面仍然有改进的余地。例如,当PDE系数不平滑并描述结构复合介质时,PINN可能导致溶液不准确。在本文中,我们通过使用PINN而不是波方程来求解频域中的声学和Visco声学散射的场波方程,以消除源奇异性。我们首先说明,当在损失函数中未实现边界条件时,非平滑速度模型导致波场不准确。然后,我们在PINN的损耗函数中添加了完美匹配的层(PML)条件,并设计了二次神经网络,以克服PINN中非平滑模型的有害影响。我们表明,PML和二次神经元改善了结果和衰减,并讨论了这种改进的原因。我们还说明,在波场模拟中训练的网络可用于预先训练PDE-Coeff及时改变后另一个波场模拟的神经网络,并相应地提高收敛速度。当两次连续迭代或两个连续的实验之间的模型扰动时,这种预训练策略应在迭代全波形反转(FWI)和时置目标成像中找到应用。
translated by 谷歌翻译
We propose characteristic-informed neural networks (CINN), a simple and efficient machine learning approach for solving forward and inverse problems involving hyperbolic PDEs. Like physics-informed neural networks (PINN), CINN is a meshless machine learning solver with universal approximation capabilities. Unlike PINN, which enforces a PDE softly via a multi-part loss function, CINN encodes the characteristics of the PDE in a general-purpose deep neural network trained with the usual MSE data-fitting regression loss and standard deep learning optimization methods. This leads to faster training and can avoid well-known pathologies of gradient descent optimization of multi-part PINN loss functions. If the characteristic ODEs can be solved exactly, which is true in important cases, the output of a CINN is an exact solution of the PDE, even at initialization, preventing the occurrence of non-physical outputs. Otherwise, the ODEs must be solved approximately, but the CINN is still trained only using a data-fitting loss function. The performance of CINN is assessed empirically in forward and inverse linear hyperbolic problems. These preliminary results indicate that CINN is able to improve on the accuracy of the baseline PINN, while being nearly twice as fast to train and avoiding non-physical solutions. Future extensions to hyperbolic PDE systems and nonlinear PDEs are also briefly discussed.
translated by 谷歌翻译
由于应用程序可用的数据越来越多,因此需要更有能力的学习模型来进行数据处理。我们遇到的数据通常具有某些嵌入式稀疏结构。也就是说,如果它们以适当的基础表示,则它们的能量可以集中于少数基础函数。本文致力于通过深层神经网络(DNN)具有稀疏的正则化具有多个参数的非线性偏微分方程解的自适应近似。指出DNN具有固有的多尺度结构,通过使用多个参数的惩罚来有利于自适应表达功能,我们开发具有多尺度稀疏正则化(SDNN)的DNN,用于有效地表示具有一定单调的功能。然后,我们将提出的SDNN应用于汉堡方程和schr \“ odinger方程的数值解。数值示例确认提出的SDNN生成的溶液稀疏而准确。
translated by 谷歌翻译
物理信息的神经网络(PINN)是神经网络(NNS),它们作为神经网络本身的组成部分编码模型方程,例如部分微分方程(PDE)。如今,PINN是用于求解PDE,分数方程,积分分化方程和随机PDE的。这种新颖的方法已成为一个多任务学习框架,在该框架中,NN必须在减少PDE残差的同时拟合观察到的数据。本文对PINNS的文献进行了全面的综述:虽然该研究的主要目标是表征这些网络及其相关的优势和缺点。该综述还试图将出版物纳入更广泛的基于搭配的物理知识的神经网络,这些神经网络构成了香草·皮恩(Vanilla Pinn)以及许多其他变体,例如物理受限的神经网络(PCNN),各种HP-VPINN,变量HP-VPINN,VPINN,VPINN,变体。和保守的Pinn(CPINN)。该研究表明,大多数研究都集中在通过不同的激活功能,梯度优化技术,神经网络结构和损耗功能结构来定制PINN。尽管使用PINN的应用范围广泛,但通过证明其在某些情况下比有限元方法(FEM)等经典数值技术更可行的能力,但仍有可能的进步,最著名的是尚未解决的理论问题。
translated by 谷歌翻译
我们提出了一个新的半分析物理知情网络(PINN),以解决奇异的边界价值问题。 PINN是一个科学的机器学习框架,为找到部分微分方程的数值解决方案提供了有希望的观点。 PINN在求解各种微分方程方面表现出令人印象深刻的性能,包括与域复杂几何相关的时间依赖性和多维方程。但是,当考虑僵硬的微分方程时,由于光谱偏置,神经网络通常无法捕获溶液的急剧过渡。为了解决此问题,我们在这里开发了半分析的PINN方法,通过使用从边界层分析获得的所谓校正器函数丰富。我们的新富集的PINN准确地预测了奇异扰动问题的数值解。数值实验包括各种类型的奇异扰动线性和非线性微分方程。
translated by 谷歌翻译
两个不混溶的流体的位移是多孔介质中流体流动的常见问题。这种问题可以作为局部微分方程(PDE)构成通常被称为Buckley-Leverett(B-L)问题。 B-L问题是一种非线性双曲守护法,众所周知,使用传统的数值方法难以解决。在这里,我们使用物理信息的神经网络(Pinns)使用非凸版通量函数来解决前向双曲线B-L问题。本文的贡献是双重的。首先,我们通过将Oleinik熵条件嵌入神经网络残差来提出一种Pinn方法来解决双曲线B-L问题。我们不使用扩散术语(人工粘度)在残留损失中,但我们依靠PDE的强形式。其次,我们使用ADAM优化器与基于残留的自适应细化(RAR)算法,实现不加权的超低损耗。我们的解决方案方法可以精确地捕获冲击前并产生精确的整体解决方案。我们报告了一个2 x 10-2的L2验证误差和1x 10-6的L2损耗。所提出的方法不需要任何额外的正则化或加权损失以获得这种准确的解决方案。
translated by 谷歌翻译
本文涉及以下重要的研究问题。传统上,神经网络采用与线性操作员连接的非线性激活功能,以近似给定的物理现象。它们与激活功能的级联“填充空间”,并调整它们的系数以近似物理现象。我们声称,更好地“填充空间”,具有由异常分析所用的平滑高阶B样条基础功能的线性组合,并利用神经网络来调整线性组合的系数。换句话说,评估使用神经网络用于近似B样条曲线基本功能的系数的可能性以及直接逼近解决方案。 Maziar Raissi等人提出了用神经网络解决微分方程。 2017年通过引入物理信息的神经网络(PINN),自然地将底层物理法编码为先前信息。使用函数的系数近似值用作输入利用神经网络的众所周知的能力是通用函数近似器。实质上,在Pinn方法中,网络近似于给定点的给定场的值。我们呈现一种替代方法,其中水平量被近似为平滑B样条基函数的线性组合,并且神经网络近似于B样条的系数。该研究将DNN的结果与近似B样条函数的线性组合系数进行比较,DNN直接逼近溶液。我们表明,当近似平滑的物理领域时,我们的方法更便宜,更准确。
translated by 谷歌翻译
近年来,由于其网状柔性和计算效率,近年来,部分微分方程(PDE)的深度学习方法受到了很多关注。但是,到目前为止,大多数作品都集中在时间依赖性的非线性微分方程上。在这项工作中,我们用众所周知的物理知情神经网络分析了潜在问题,用于微分方程,边界上的约束很少(即,约束仅在几个点上)。这种分析促使我们引入了一种名为Finnet的新技术,用于通过将有限的差异纳入深度学习来解决微分方程。即使我们在训练过程中使用网格,预测阶段也不是网状的。我们通过解决各种方程式的实验来说明我们方法的有效性,这表明Finnet可以求解较低的错误率,即使Pinns不能,也可以工作。
translated by 谷歌翻译
当系统中有某些未知术语和隐藏的物理机制时,基于第一原理的复杂物理系统的管理方程可能会非常具有挑战性。在这项工作中,我们采用深度学习体系结构来学习基于从完全动力学模型中获取的数据的等离子体系统的流体部分微分方程(PDE)。证明了学到的多臂流体PDE可以融合诸如Landau阻尼等动力学效应。基于学习的流体闭合,数据驱动的多音阶流体建模可以很好地再现从完全动力学模型中得出的所有物理量。Landau阻尼的计算阻尼率与完全动力学的模拟和线性理论一致。用于复杂物理系统的PDE的数据驱动的流体建模可以应用于改善流体闭合并降低全球系统多规模建模的计算成本。
translated by 谷歌翻译
深度学习方法的应用加快了挑战性电流问题的分辨率,最近显示出令人鼓舞的结果。但是,电力系统动力学不是快照,稳态操作。必须考虑这些动力学,以确保这些模型提供的最佳解决方案遵守实用的动力约束,避免频率波动和网格不稳定性。不幸的是,由于其高计算成本,基于普通或部分微分方程的动态系统模型通常不适合在控制或状态估计中直接应用。为了应对这些挑战,本文介绍了一种机器学习方法,以近乎实时近似电力系统动态的行为。该拟议的框架基于梯度增强的物理知识的神经网络(GPINNS),并编码有关电源系统的基本物理定律。拟议的GPINN的关键特征是它的训练能力而无需生成昂贵的培训数据。该论文说明了在单机无限总线系统中提出的方法在预测转子角度和频率的前进和反向问题中的潜力,以及不确定的参数,例如惯性和阻尼,以展示其在一系列电力系统应用中的潜力。
translated by 谷歌翻译
Navier-Stokes方程是描述液体和空气等流体运动的重要部分微分方程。由于Navier-Stokes方程的重要性,有效的数值方案的发展对科学和工程师都很重要。最近,随着AI技术的开发,已经设计了几种方法来整合深层神经网络,以模拟和推断不可压缩的Navier-Stokes方程所控制的流体动力学,这些方程可以以无网状和可不同的方式加速模拟或推断过程。在本文中,我们指出,现有的深入Navier-Stokes知情方法的能力仅限于处理非平滑或分数方程,这在现实中是两种关键情况。为此,我们提出了\ emph {深入的随机涡流方法}(drvm),该方法将神经网络与随机涡流动力学系统相结合,等效于Navier-Stokes方程。具体而言,随机涡流动力学激发了用于训练神经网络的基于蒙特卡洛的损失函数,从而避免通过自动差异计算衍生物。因此,DRVM不仅可以有效地求解涉及粗糙路径,非差异初始条件和分数运算符的Navier-Stokes方程,而且还继承了基于深度学习的求解器的无网格和可区分优势。我们对凯奇问题,参数求解器学习以及2-D和3-D不可压缩的Navier-Stokes方程的逆问题进行实验。所提出的方法为Navier-Stokes方程的仿真和推断提供了准确的结果。特别是对于包括奇异初始条件的情况,DRVM明显胜过现有的PINN方法。
translated by 谷歌翻译
随着计算能力的增加和机器学习的进步,基于数据驱动的学习方法在解决PDE方面引起了极大的关注。物理知识的神经网络(PINN)最近出现并成功地在各种前进和逆PDES问题中取得了成功,其优异的特性,例如灵活性,无网格解决方案和无监督的培训。但是,它们的收敛速度较慢和相对不准确的解决方案通常会限制其在许多科学和工程领域中的更广泛适用性。本文提出了一种新型的数据驱动的PDES求解器,物理知识的细胞表示(Pixel),优雅地结合了经典数值方法和基于学习的方法。我们采用来自数值方法的网格结构,以提高准确性和收敛速度并克服PINN中呈现的光谱偏差。此外,所提出的方法在PINN中具有相同的好处,例如,使用相同的优化框架来解决前进和逆PDE问题,并很容易通过现代自动分化技术强制执行PDE约束。我们为原始Pinn所努力的各种具有挑战性的PDE提供了实验结果,并表明像素达到了快速收敛速度和高精度。
translated by 谷歌翻译
物理知情的神经网络(PINN)要求定期的基础PDE解决方案,以确保准确的近似值。因此,它们可能会在近似PDE的不连续溶液(例如非线性双曲方程)的情况下失败。为了改善这一点,我们提出了一种新颖的PINN变体,称为弱PINN(WPINNS),以准确地近似标量保护定律的熵溶液。WPINN是基于近似于根据Kruzkhov熵定义的残留的最小最大优化问题的解决方案,以确定近似熵解决方案的神经网络的参数以及测试功能。我们证明了WPINN发生的误差的严格界限,并通过数值实验说明了它们的性能,以证明WPINN可以准确地近似熵解决方案。
translated by 谷歌翻译
在本文中,开发了一种新的不连续性捕获浅神经网络(DCSNN),以近似于$ d $ d $二维的分段连续功能和解决椭圆界面问题。当前网络中有三个新颖的功能。即,(i)跳跃不连续性被准确捕获,(ii)它完全浅,仅包含一个隐藏层,(iii)它完全无网格,用于求解部分微分方程。这里的关键想法是,可以将$ d $维的分段连续函数扩展到$(d+1)$ - 尺寸空间中定义的连续函数,其中增强坐标变量标记每个子域的零件。然后,我们构建一个浅神经网络来表达这一新功能。由于仅使用一个隐藏层,因此训练参数(权重和偏见)的数量与隐藏层中使用的维度和神经元线性缩放。为了解决椭圆界面问题,通过最大程度地减少由管理方程式,边界条件和接口跳跃条件组成的均方误差损失来训练网络。我们执行一系列数值测试以证明本网络的准确性。我们的DCSNN模型由于仅需要训练的参数数量中等(在所有数值示例中使用了几百个参数),因此很有效,结果表明准确性良好。与传统的基于网格的浸入界面方法(IIM)获得的结果相比,该方法专门针对椭圆界面问题而设计,我们的网络模型比IIM表现出更好的精度。我们通过解决一个六维问题来结论,以证明本网络在高维应用中的能力。
translated by 谷歌翻译