物理信息神经网络(PINN)的自适应训练方法需要专门的构造,以分配每个训练样本分配的权重分布。有效地寻求这种最佳的权重分布并不是一项简单的任务,大多数现有方法基于近似值的全部分布或最大值选择自适应权重。在本文中,我们表明,用于训练效率的样品自适应选择中的瓶颈是数值残差的尾巴分布的行为。因此,我们提出了剩余的定量调整(RQA)方法,可为每个训练样本提供更好的体重选择。最初将权重设置与剩余的$ p $ th功率成正比之后,我们的RQA方法重新分配了所有高于$ q $ - Quantile(例如$ 90 \%$)的所有权重,以便中位数,因此权重遵循分数 - 从残差得出的调整分布。借助迭代的重新加权技术,RQA也非常易于实现。实验结果表明,所提出的方法可以在各种偏微分方程(PDE)问题上胜过几种自适应方法。
translated by 谷歌翻译
深入学习被证明是通过物理信息的神经网络(PINNS)求解部分微分方程(PDE)的有效工具。 Pinns将PDE残差嵌入到神经网络的损耗功能中,已成功用于解决各种前向和逆PDE问题。然而,第一代Pinns的一个缺点是它们通常具有许多训练点即使具有有限的准确性。在这里,我们提出了一种新的方法,梯度增强的物理信息的神经网络(GPInns),用于提高Pinns的准确性和培训效率。 GPInns利用PDE残差的梯度信息,并将梯度嵌入损耗功能。我们广泛地测试了GPinns,并证明了GPInns在前进和反向PDE问题中的有效性。我们的数值结果表明,GPInn比贴图更好地表现出较少的训练点。此外,我们将GPIn与基于残留的自适应细化(RAR)的方法组合,一种用于在训练期间自适应地改善训练点分布的方法,以进一步提高GPInn的性能,尤其是具有陡峭梯度的溶液的PDE。
translated by 谷歌翻译
物理信息的神经网络(PINN)已证明是解决部分微分方程(PDE)的前进和反问题的有效工具。 PINN将PDE嵌入神经网络的丢失中,并在一组散射的残留点上评估该PDE损失。这些点的分布对于PINN的性能非常重要。但是,在现有的针对PINN的研究中,仅使用了一些简单的残留点抽样方法。在这里,我们介绍了两类采样的全面研究:非自适应均匀抽样和适应性非均匀抽样。我们考虑了六个均匀的采样,包括(1)稳定的均匀网格,(2)均匀随机采样,(3)拉丁语超立方体采样,(4)Halton序列,(5)Hammersley序列和(6)Sobol序列。我们还考虑了用于均匀抽样的重采样策略。为了提高采样效率和PINN的准确性,我们提出了两种新的基于残余的自适应抽样方法:基于残留的自适应分布(RAD)和基于残留的自适应改进,并具有分布(RAR-D),它们会动态地改善基于训练过程中PDE残差的剩余点。因此,我们总共考虑了10种不同的采样方法,包括6种非自适应均匀抽样,重采样的均匀抽样,两种提议的自适应抽样和现有的自适应抽样。我们广泛测试了这些抽样方法在许多设置中的四个正向问题和两个反问题的性能。我们在本研究中介绍的数值结果总结了6000多个PINN的模拟。我们表明,RAD和RAR-D的提议的自适应采样方法显着提高了PINN的准确性,其残留点较少。在这项研究中获得的结果也可以用作选择抽样方法的实用指南。
translated by 谷歌翻译
Deep learning has achieved remarkable success in diverse applications; however, its use in solving partial differential equations (PDEs) has emerged only recently. Here, we present an overview of physics-informed neural networks (PINNs), which embed a PDE into the loss of the neural network using automatic differentiation. The PINN algorithm is simple, and it can be applied to different types of PDEs, including integro-differential equations, fractional PDEs, and stochastic PDEs. Moreover, from the implementation point of view, PINNs solve inverse problems as easily as forward problems. We propose a new residual-based adaptive refinement (RAR) method to improve the training efficiency of PINNs. For pedagogical reasons, we compare the PINN algorithm to a standard finite element method. We also present a Python library for PINNs, DeepXDE, which is designed to serve both as an education tool to be used in the classroom as well as a research tool for solving problems in computational science and engineering. Specifically, DeepXDE can solve forward problems given initial and boundary conditions, as well as inverse problems given some extra measurements. DeepXDE supports complex-geometry domains based on the technique of constructive solid geometry, and enables the user code to be compact, resembling closely the mathematical formulation. We introduce the usage of DeepXDE and its customizability, and we also demonstrate the capability of PINNs and the user-friendliness of DeepXDE for five different examples. More broadly, DeepXDE contributes to the more rapid development of the emerging Scientific Machine Learning field.
translated by 谷歌翻译
物理知识的神经网络(PINN)已成为解决各种域中的部分微分方程(PDE)的强大工具。尽管PINNS的先前研究主要集中在训练期间构建和平衡损失功能以避免最小值,但采样搭配点对PINNS性能的影响很大程度上被忽略了。在这项工作中,我们发现PINN的性能可以随着不同的采样策略而显着变化,并且使用固定的搭配点可能对PINNS与正确解决方案的收敛性很小。特别是(1)我们假设对PINN的培训依赖于从初始和/或边界条件点到内部点的成功“传播”,而采样策略差的PINN可能会卡在琐事的解决方案上,如果有\ textit {传播失败}。 (2)我们证明,传播失败的特征是高度不平衡的PDE残留场,在非常狭窄的区域中观察到非常高的残留物。 (3)为了减轻传播失败,我们提出了一种新颖的\ textit {Evolutionary采样}(EVO)方法,该方法可以逐步积累高PDE残差区域中的搭配点。我们进一步提供EVO的扩展,以尊重因果关系原理,同时解决时间依赖性PDE。我们从经验上证明了我们提出的方法在各种PDE问题中的功效和效率。
translated by 谷歌翻译
Although physics-informed neural networks(PINNs) have progressed a lot in many real applications recently, there remains problems to be further studied, such as achieving more accurate results, taking less training time, and quantifying the uncertainty of the predicted results. Recent advances in PINNs have indeed significantly improved the performance of PINNs in many aspects, but few have considered the effect of variance in the training process. In this work, we take into consideration the effect of variance and propose our VI-PINNs to give better predictions. We output two values in the final layer of the network to represent the predicted mean and variance respectively, and the latter is used to represent the uncertainty of the output. A modified negative log-likelihood loss and an auxiliary task are introduced for fast and accurate training. We perform several experiments on a wide range of different problems to highlight the advantages of our approach. The results convey that our method not only gives more accurate predictions but also converges faster.
translated by 谷歌翻译
作为深度学习的典型{Application},物理知识的神经网络(PINN){已成功用于找到部分微分方程(PDES)的数值解决方案(PDES),但是如何提高有限准确性仍然是PINN的巨大挑战。 。在这项工作中,我们引入了一种新方法,对称性增强物理学知情的神经网络(SPINN),其中PDE的谎言对称性诱导的不变表面条件嵌入PINN的损失函数中,以提高PINN的准确性。我们分别通过两组十组独立数值实验来测试SPINN的有效性,分别用于热方程,Korteweg-De Vries(KDV)方程和潜在的汉堡{方程式},这表明Spinn的性能比PINN更好,而PINN的训练点和更简单的结构都更好神经网络。此外,我们讨论了Spinn的计算开销,以PINN的相对计算成本,并表明Spinn的训练时间没有明显的增加,甚至在某些情况下还不是PINN。
translated by 谷歌翻译
在本文中,我们演示并调查了一些挑战,这些挑战阻碍了使用物理知识的神经网络解决复杂问题的方式。特别是,我们可视化受过训练的模型的损失景观,并在存在物理学的情况下对反向传播梯度进行灵敏度分析。我们的发现表明,现有的方法产生了难以导航的高度非凸损失景观。此外,高阶PDE污染了可能阻碍或防止收敛的反向传播梯度。然后,我们提出了一种新的方法,该方法绕过了高阶PDE操作员的计算并减轻反向传播梯度的污染。为此,我们降低了解决方案搜索空间的维度,并通过非平滑解决方案促进学习问题。我们的配方还提供了一种反馈机制,可帮助我们的模型适应地专注于难以学习的领域的复杂区域。然后,我们通过调整Lagrange乘数方法来提出一个无约束的二重问题。我们运用我们的方法来解决由线性和非线性PDE控制的几个具有挑战性的基准问题。
translated by 谷歌翻译
在这项工作中,我们提出了一种深度自适应采样(DAS)方法,用于求解部分微分方程(PDE),其中利用深神经网络近似PDE和深生成模型的解决方案,用于生成改进训练集的新的搭配点。 DAS的整体过程由两个组件组成:通过最小化训练集中的搭配点上的剩余损失来解决PDE,并生成新的训练集,以进一步提高电流近似解的准确性。特别地,我们将残差作为概率密度函数进行处理,并用一个被称为Krnet的深生成模型近似它。来自Krnet的新样品与残留物诱导的分布一致,即,更多样品位于大残留的区域中,并且较少的样品位于小残余区域中。类似于经典的自适应方法,例如自适应有限元,Krnet作为引导训练集的改进的错误指示器。与用均匀分布的搭配点获得的神经网络近似相比,发达的算法可以显着提高精度,特别是对于低规律性和高维问题。我们展示了一个理论分析,表明所提出的DAS方法可以减少误差并展示其与数值实验的有效性。
translated by 谷歌翻译
在本文中,我们提出了用于求解非线性微分方程(NDE)的神经网络的物理知情训练(PIAT)。众所周知,神经网络的标准培训会导致非平滑函数。对抗训练(AT)是针对对抗攻击的既定防御机制,这也可能有助于使解决方案平滑。 AT包括通过扰动增强训练迷你批量,使网络输出不匹配所需的输出对手。与正式AT仅依靠培训数据不同,在这里,我们使用对抗网络体系结构中的自动差异来以非线性微分方程的形式编码管理物理定律。我们将PIAT与PIAT进行了比较,以指示我们方法在求解多达10个维度方面的有效性。此外,我们提出了重量衰减和高斯平滑,以证明PIAT的优势。代码存储库可从https://github.com/rohban-lab/piat获得。
translated by 谷歌翻译
This paper proposes Friedrichs learning as a novel deep learning methodology that can learn the weak solutions of PDEs via a minmax formulation, which transforms the PDE problem into a minimax optimization problem to identify weak solutions. The name "Friedrichs learning" is for highlighting the close relationship between our learning strategy and Friedrichs theory on symmetric systems of PDEs. The weak solution and the test function in the weak formulation are parameterized as deep neural networks in a mesh-free manner, which are alternately updated to approach the optimal solution networks approximating the weak solution and the optimal test function, respectively. Extensive numerical results indicate that our mesh-free method can provide reasonably good solutions to a wide range of PDEs defined on regular and irregular domains in various dimensions, where classical numerical methods such as finite difference methods and finite element methods may be tedious or difficult to be applied.
translated by 谷歌翻译
基于神经网络的求解部分微分方程的方法由于其简单性和灵活性来表示偏微分方程的解决方案而引起了相当大的关注。在训练神经网络时,网络倾向于学习与低频分量相对应的全局特征,而高频分量以较慢的速率(F原理)近似。对于解决方案包含广泛尺度的一类等式,由于无法捕获高频分量,网络训练过程可能会遭受缓慢的收敛性和低精度。在这项工作中,我们提出了一种分层方法来提高神经网络解决方案的收敛速率和准确性。所提出的方法包括多训练水平,其中引导新引入的神经网络来学习先前级别近似的残余。通过神经网络训练过程的性​​质,高级校正倾向于捕获高频分量。我们通过一套线性和非线性部分微分方程验证所提出的分层方法的效率和稳健性。
translated by 谷歌翻译
机器学习方法最近在求解部分微分方程(PDE)中的承诺。它们可以分为两种广泛类别:近似解决方案功能并学习解决方案操作员。物理知识的神经网络(PINN)是前者的示例,而傅里叶神经操作员(FNO)是后者的示例。这两种方法都有缺点。 Pinn的优化是具有挑战性,易于发生故障,尤其是在多尺度动态系统上。 FNO不会遭受这种优化问题,因为它在给定的数据集上执行了监督学习,但获取此类数据可能太昂贵或无法使用。在这项工作中,我们提出了物理知识的神经运营商(Pino),在那里我们结合了操作学习和功能优化框架。这种综合方法可以提高PINN和FNO模型的收敛速度和准确性。在操作员学习阶段,Pino在参数PDE系列的多个实例上学习解决方案操作员。在测试时间优化阶段,Pino优化预先训练的操作员ANSATZ,用于PDE的查询实例。实验显示Pino优于许多流行的PDE家族的先前ML方法,同时保留与求解器相比FNO的非凡速度。特别是,Pino准确地解决了挑战的长时间瞬态流量,而其他基线ML方法无法收敛的Kolmogorov流程。
translated by 谷歌翻译
在这项工作中,我们开发了一个有效的求解器,该求解器基于泊松方程的深神经网络,具有可变系数和由Dirac Delta函数$ \ delta(\ Mathbf {x})$表示的可变系数和单数来源。这类问题涵盖了一般点源,线路源和点线组合,并且具有广泛的实际应用。所提出的方法是基于将真实溶液分解为一个单一部分,该部分使用拉普拉斯方程的基本解决方案在分析上以分析性的方式,以及一个正常零件,该零件满足适合的椭圆形PDE,并使用更平滑的来源,然后使用深层求解常规零件,然后使用深层零件来求解。丽兹法。建议提出遵守路径遵循的策略来选择罚款参数以惩罚Dirichlet边界条件。提出了具有点源,线源或其组合的两维空间和多维空间中的广泛数值实验,以说明所提出的方法的效率,并提供了一些现有方法的比较研究,这清楚地表明了其竞争力的竞争力具体的问题类别。此外,我们简要讨论该方法的误差分析。
translated by 谷歌翻译
Recent years have witnessed a growth in mathematics for deep learning--which seeks a deeper understanding of the concepts of deep learning with mathematics, and explores how to make it more robust--and deep learning for mathematics, where deep learning algorithms are used to solve problems in mathematics. The latter has popularised the field of scientific machine learning where deep learning is applied to problems in scientific computing. Specifically, more and more neural network architectures have been developed to solve specific classes of partial differential equations (PDEs). Such methods exploit properties that are inherent to PDEs and thus solve the PDEs better than classical feed-forward neural networks, recurrent neural networks, and convolutional neural networks. This has had a great impact in the area of mathematical modeling where parametric PDEs are widely used to model most natural and physical processes arising in science and engineering, In this work, we review such methods and extend them for parametric studies as well as for solving the related inverse problems. We equally proceed to show their relevance in some industrial applications.
translated by 谷歌翻译
我们提出了一种基于具有子域(CENN)的神经网络的保守能量方法,其中允许通过径向基函数(RBF),特定解决方案神经网络和通用神经网络构成满足没有边界惩罚的基本边界条件的可允许功能。与具有子域的强形式Pinn相比,接口处的损耗术语具有较低的阶数。所提出的方法的优点是效率更高,更准确,更小的近双达,而不是具有子域的强形式Pinn。所提出的方法的另一个优点是它可以基于可允许功能的特殊结构适用于复杂的几何形状。为了分析其性能,所提出的方法宫殿用于模拟代表性PDE,这些实施例包括强不连续性,奇异性,复杂边界,非线性和异质问题。此外,在处理异质问题时,它优于其他方法。
translated by 谷歌翻译
在本文中,我们开发了一种物理知识的神经网络(PINN)模型,用于具有急剧干扰初始条件的抛物线问题。作为抛物线问题的一个示例,我们考虑具有点(高斯)源初始条件的对流 - 分散方程(ADE)。在$ d $维的ADE中,在初始条件衰减中的扰动随时间$ t $ as $ t^{ - d/2} $,这可能会在Pinn解决方案中造成较大的近似错误。 ADE溶液中的局部大梯度使该方程的残余效率低下的(PINN)拉丁高立方体采样(常见)。最后,抛物线方程的PINN解对损耗函数中的权重选择敏感。我们提出了一种归一化的ADE形式,其中溶液的初始扰动不会降低幅度,并证明该归一化显着降低了PINN近似误差。我们提出了与通过其他方法选择的权重相比,损耗函数中的权重标准更准确。最后,我们提出了一种自适应采样方案,该方案可显着减少相同数量的采样(残差)点的PINN溶液误差。我们证明了提出的PINN模型的前进,反向和向后ADE的准确性。
translated by 谷歌翻译
科学和工程学中的一个基本问题是设计最佳的控制政策,这些政策将给定的系统转向预期的结果。这项工作提出了同时求解给定系统状态和最佳控制信号的控制物理信息的神经网络(控制PINNS),在符合基础物理定律的一个阶段框架中。先前的方法使用两个阶段的框架,该框架首先建模然后按顺序控制系统。相比之下,控制PINN将所需的最佳条件纳入其体系结构和损耗函数中。通过解决以下开环的最佳控制问题来证明控制PINN的成功:(i)一个分析问题,(ii)一维热方程,以及(iii)二维捕食者捕食者问题。
translated by 谷歌翻译
Physics-informed neural networks (PINNs) constitute a flexible approach to both finding solutions and identifying parameters of partial differential equations. Most works on the topic assume noiseless data, or data contaminated by weak Gaussian noise. We show that the standard PINN framework breaks down in case of non-Gaussian noise. We give a way of resolving this fundamental issue and we propose to jointly train an energy-based model (EBM) to learn the correct noise distribution. We illustrate the improved performance of our approach using multiple examples.
translated by 谷歌翻译
物理知情的神经网络(PINN)要求定期的基础PDE解决方案,以确保准确的近似值。因此,它们可能会在近似PDE的不连续溶液(例如非线性双曲方程)的情况下失败。为了改善这一点,我们提出了一种新颖的PINN变体,称为弱PINN(WPINNS),以准确地近似标量保护定律的熵溶液。WPINN是基于近似于根据Kruzkhov熵定义的残留的最小最大优化问题的解决方案,以确定近似熵解决方案的神经网络的参数以及测试功能。我们证明了WPINN发生的误差的严格界限,并通过数值实验说明了它们的性能,以证明WPINN可以准确地近似熵解决方案。
translated by 谷歌翻译