操作员的学习框架由于其能够在两个无限尺寸功能空间之间学习非线性图和神经网络的利用能力,因此最近成为应用机器学习领域中最相关的领域之一。尽管这些框架在建模复杂现象方面具有极大的能力,但它们需要大量数据才能成功培训,这些数据通常是不可用或太昂贵的。但是,可以通过使用多忠诚度学习来缓解此问题,在这种学习中,通过使用大量廉价的低保真数据以及少量昂贵的高保真数据来训练模型。为此,我们开发了一个基于小波神经操作员的新框架,该框架能够从多保真数据集中学习。通过解决不同的问题,需要在两个忠诚度之间进行有效的相关性学习来证明开发模型的出色学习能力。此外,我们还评估了开发框架在不确定性定量中的应用。从这项工作中获得的结果说明了拟议框架的出色表现。
translated by 谷歌翻译
标准的神经网络可以近似一般的非线性操作员,要么通过数学运算符的组合(例如,在对流 - 扩散反应部分微分方程中)的组合,要么仅仅是黑匣子,例如黑匣子,例如一个系统系统。第一个神经操作员是基于严格的近似理论于2019年提出的深层操作员网络(DeepOnet)。从那时起,已经发布了其他一些较少的一般操作员,例如,基于图神经网络或傅立叶变换。对于黑匣子系统,对神经操作员的培训仅是数据驱动的,但是如果知道管理方程式可以在培训期间将其纳入损失功能,以开发物理知识的神经操作员。神经操作员可以用作设计问题,不确定性量化,自主系统以及几乎任何需要实时推断的应用程序中的代替代物。此外,通过将它们与相对轻的训练耦合,可以将独立的预训练deponets用作复杂多物理系统的组成部分。在这里,我们介绍了Deponet,傅立叶神经操作员和图神经操作员的评论,以及适当的扩展功能扩展,并突出显示它们在计算机械师中的各种应用中的实用性,包括多孔媒体,流体力学和固体机制, 。
translated by 谷歌翻译
我们提出了一种基于深度学习的代理模型,用于解决高维不确定性量化和不确定性传播问题。通过将众所周知的U-Net架构与高斯门控线性网络(GGLN)集成并称为所界线线性网络引起的U-Net或Glu-Net,通过将众所周知的U-Net架构进行了开发了建议的深度学习架构。所提出的Glu-Net将不确定性传播问题视为图像回归的图像,因此是极其数据效率。此外,它还提供了预测性不确定性的估计。 Glu-Net的网络架构不太复杂,参数比当代作品较少44 \%。我们说明了所提议的Glu-net在稀疏数据场景下在不确定性下解决达西流动问题的表现。我们认为随机输入维度最高可达4225.使用香草蒙特卡罗模拟产生基准结果。即使没有关于输入的结构的信息提供对网络的结构的信息,我们也观察到所提出的Glu-Net是准确的,非常有效。通过改变训练样本大小和随机输入维度来进行案例研究以说明所提出的方法的稳健性。
translated by 谷歌翻译
Recent years have witnessed a growth in mathematics for deep learning--which seeks a deeper understanding of the concepts of deep learning with mathematics, and explores how to make it more robust--and deep learning for mathematics, where deep learning algorithms are used to solve problems in mathematics. The latter has popularised the field of scientific machine learning where deep learning is applied to problems in scientific computing. Specifically, more and more neural network architectures have been developed to solve specific classes of partial differential equations (PDEs). Such methods exploit properties that are inherent to PDEs and thus solve the PDEs better than classical feed-forward neural networks, recurrent neural networks, and convolutional neural networks. This has had a great impact in the area of mathematical modeling where parametric PDEs are widely used to model most natural and physical processes arising in science and engineering, In this work, we review such methods and extend them for parametric studies as well as for solving the related inverse problems. We equally proceed to show their relevance in some industrial applications.
translated by 谷歌翻译
物理信息的神经网络(PINN)是神经网络(NNS),它们作为神经网络本身的组成部分编码模型方程,例如部分微分方程(PDE)。如今,PINN是用于求解PDE,分数方程,积分分化方程和随机PDE的。这种新颖的方法已成为一个多任务学习框架,在该框架中,NN必须在减少PDE残差的同时拟合观察到的数据。本文对PINNS的文献进行了全面的综述:虽然该研究的主要目标是表征这些网络及其相关的优势和缺点。该综述还试图将出版物纳入更广泛的基于搭配的物理知识的神经网络,这些神经网络构成了香草·皮恩(Vanilla Pinn)以及许多其他变体,例如物理受限的神经网络(PCNN),各种HP-VPINN,变量HP-VPINN,VPINN,VPINN,变体。和保守的Pinn(CPINN)。该研究表明,大多数研究都集中在通过不同的激活功能,梯度优化技术,神经网络结构和损耗功能结构来定制PINN。尽管使用PINN的应用范围广泛,但通过证明其在某些情况下比有限元方法(FEM)等经典数值技术更可行的能力,但仍有可能的进步,最著名的是尚未解决的理论问题。
translated by 谷歌翻译
机器学习领域的最新进展打开了高性能计算的新时代。机器学习算法在开发复杂问题的准确和成本效益的替代物中的应用已经引起了科学家的主要关注。尽管具有强大的近似功能,但代理人仍无法为问题产生“精确”解决方案。为了解决此问题,本文利用了最新的ML工具,并提供了线性方程系统的自定义迭代求解器,能够在任何所需的准确性级别求解大规模参数化问题。具体而言,建议的方法包括以下两个步骤。首先,进行了一组减少的模型评估集,并使用相应的解决方案用于建立从问题的参数空间到其解决方案空间的近似映射,并使用深层馈电神经网络和卷积自动编码器。该映射是一种手段,可以以微不足道的计算成本来获得对系统对新查询点的响应的非常准确的初始预测。随后,开发了一种受代数多机方法启发的迭代求解器与适当的正交分解(称为pod-2g)相结合的迭代求解器,该迭代求解器被开发为依次完善对确切系统解决方案的初始预测。在大规模系统的几个数值示例中,证明了POD-2G作为独立求解器或作为预处理梯度方法的预处理,结果表明其优于常规迭代溶液方案。
translated by 谷歌翻译
机器学习中的不确定性量化(UQ)目前正在引起越来越多的研究兴趣,这是由于深度神经网络在不同领域的快速部署,例如计算机视觉,自然语言处理以及对风险敏感应用程序中可靠的工具的需求。最近,还开发了各种机器学习模型,以解决科学计算领域的问题,并适用于计算科学和工程(CSE)。物理知识的神经网络和深层操作员网络是两个这样的模型,用于求解部分微分方程和学习操作员映射。在这方面,[45]中提供了专门针对科学机器学习(SCIML)模型量身定制的UQ方法的全面研究。然而,尽管具有理论上的优点,但这些方法的实施并不简单,尤其是在大规模的CSE应用程序中,阻碍了他们在研究和行业环境中的广泛采用。在本文中,我们提出了一个开源python图书馆(https://github.com/crunch-uq4mi),称为Neuraluq,并伴有教育教程,用于以方便且结构化的方式采用SCIML的UQ方法。该图书馆既专为教育和研究目的,都支持多种现代UQ方法和SCIML模型。它基于简洁的工作流程,并促进了用户的灵活就业和易于扩展。我们首先提出了神经脉的教程,随后在四个不同的示例中证明了其适用性和效率,涉及动态系统以及高维参数和时间依赖性PDE。
translated by 谷歌翻译
概率密度演化的推导提供了对许多随机系统及其性能的行为的宝贵洞察力。但是,对于大多数实时应用程序,对概率密度演变的数值确定是一项艰巨的任务。后者是由于所需的时间和空间离散方案引起的,这些方案使大多数计算解决方案过于效率和不切实际。在这方面,有效的计算替代模型的开发至关重要。关于物理受限网络的最新研究表明,可以通过编码对深神经网络的物理洞察力来实现合适的替代物。为此,目前的工作介绍了Deeppdem,它利用物理信息网络的概念通过提出深度学习方法来解决概率密度的演变。 Deeppdem了解随机结构的一般密度演化方程(GDEE)。这种方法为无网格学习方法铺平了道路,该方法可以通过以前的模拟数据解决密度演化问题。此外,它还可以作为优化方案或实时应用程序中任何其他时空点的溶液的有效替代物。为了证明所提出的框架的潜在适用性,研究了两个具有不同激活功能的网络体系结构以及两个优化器。关于三个不同问题的数值实施验证了所提出方法的准确性和功效。
translated by 谷歌翻译
神经网络的经典发展主要集中在有限维欧基德空间或有限组之间的学习映射。我们提出了神经网络的概括,以学习映射无限尺寸函数空间之间的运算符。我们通过一类线性积分运算符和非线性激活函数的组成制定运营商的近似,使得组合的操作员可以近似复杂的非线性运算符。我们证明了我们建筑的普遍近似定理。此外,我们介绍了四类运算符参数化:基于图形的运算符,低秩运算符,基于多极图形的运算符和傅里叶运算符,并描述了每个用于用每个计算的高效算法。所提出的神经运营商是决议不变的:它们在底层函数空间的不同离散化之间共享相同的网络参数,并且可以用于零击超分辨率。在数值上,与现有的基于机器学习的方法,达西流程和Navier-Stokes方程相比,所提出的模型显示出卓越的性能,而与传统的PDE求解器相比,与现有的基于机器学习的方法有关的基于机器学习的方法。
translated by 谷歌翻译
多保真建模和学习在与物理模拟相关的应用中很重要。它可以利用低保真性和高保真示例进行培训,以降低数据生成成本,同时仍然达到良好的性能。尽管现有方法仅模型有限,离散的保真度,但实际上,忠诚度的选择通常是连续且无限的,这可以对应于连续的网格间距或有限元元素长度。在本文中,我们提出了无限的保真度核心化(IFC)。鉴于数据,我们的方法可以在连续无限的保真度中提取和利用丰富的信息来增强预测准确性。我们的模型可以插值和/或推断出对新型保真度的预测,甚至可以高于训练数据的保​​真度。具体而言,我们引入了一个低维的潜在输出作为保真度和输入的连续函数,并具有带有基矩阵的多个IT以预测高维解决方案输出。我们将潜在输出建模为神经普通微分方程(ODE),以捕获内部的复杂关系并在整个连续保真度中整合信息。然后,我们使用高斯工艺或其他颂歌来估计忠诚度变化的碱基。为了有效的推断,我们将碱基重组为张量,并使用张量 - 高斯变异后部为大规模输出开发可扩展的推理算法。我们在计算物理学的几个基准任务中展示了我们的方法的优势。
translated by 谷歌翻译
We present an end-to-end framework to learn partial differential equations that brings together initial data production, selection of boundary conditions, and the use of physics-informed neural operators to solve partial differential equations that are ubiquitous in the study and modeling of physics phenomena. We first demonstrate that our methods reproduce the accuracy and performance of other neural operators published elsewhere in the literature to learn the 1D wave equation and the 1D Burgers equation. Thereafter, we apply our physics-informed neural operators to learn new types of equations, including the 2D Burgers equation in the scalar, inviscid and vector types. Finally, we show that our approach is also applicable to learn the physics of the 2D linear and nonlinear shallow water equations, which involve three coupled partial differential equations. We release our artificial intelligence surrogates and scientific software to produce initial data and boundary conditions to study a broad range of physically motivated scenarios. We provide the source code, an interactive website to visualize the predictions of our physics informed neural operators, and a tutorial for their use at the Data and Learning Hub for Science.
translated by 谷歌翻译
Discovering governing equations of a physical system, represented by partial differential equations (PDEs), from data is a central challenge in a variety of areas of science and engineering. Current methods require either some prior knowledge (e.g., candidate PDE terms) to discover the PDE form, or a large dataset to learn a surrogate model of the PDE solution operator. Here, we propose the first solution operator learning method that only needs one PDE solution, i.e., one-shot learning. We first decompose the entire computational domain into small domains, where we learn a local solution operator, and then we find the coupled solution via either mesh-based fixed-point iteration or meshfree local-solution-operator informed neural networks. We demonstrate the effectiveness of our method on different PDEs, and our method exhibits a strong generalization property.
translated by 谷歌翻译
在这项工作中,我们介绍,证明并展示了纠正源期限方法(Costa) - 一种新的混合分析和建模(火腿)的新方法。 HAM的目标是将基于物理的建模(PBM)和数据驱动的建模(DDM)组合,以创建概括,值得信赖,准确,计算高效和自我不断发展的模型。 Costa通过使用深神经网络产生的纠正源期限增强PBM模型的控制方程来实现这一目标。在一系列关于一维热扩散的数值实验中,发现CostA在精度方面优于相当的DDM和PBM模型 - 通常通过几个数量级降低预测误差 - 同时也比纯DDM更好地概括。由于其灵活而稳定的理论基础,Costa提供了一种模块化框架,用于利用PBM和DDM中的新颖开发。其理论基础还确保了哥斯达队可以用来模拟由(确定性)部分微分方程所控制的任何系统。此外,Costa有助于在PBM的背景下解释DNN生成的源术语,这导致DNN的解释性改善。这些因素使哥斯达成为数据驱动技术的潜在门开启者,以进入先前为纯PBM保留的高赌注应用。
translated by 谷歌翻译
Deep neural operators can learn nonlinear mappings between infinite-dimensional function spaces via deep neural networks. As promising surrogate solvers of partial differential equations (PDEs) for real-time prediction, deep neural operators such as deep operator networks (DeepONets) provide a new simulation paradigm in science and engineering. Pure data-driven neural operators and deep learning models, in general, are usually limited to interpolation scenarios, where new predictions utilize inputs within the support of the training set. However, in the inference stage of real-world applications, the input may lie outside the support, i.e., extrapolation is required, which may result to large errors and unavoidable failure of deep learning models. Here, we address this challenge of extrapolation for deep neural operators. First, we systematically investigate the extrapolation behavior of DeepONets by quantifying the extrapolation complexity via the 2-Wasserstein distance between two function spaces and propose a new behavior of bias-variance trade-off for extrapolation with respect to model capacity. Subsequently, we develop a complete workflow, including extrapolation determination, and we propose five reliable learning methods that guarantee a safe prediction under extrapolation by requiring additional information -- the governing PDEs of the system or sparse new observations. The proposed methods are based on either fine-tuning a pre-trained DeepONet or multifidelity learning. We demonstrate the effectiveness of the proposed framework for various types of parametric PDEs. Our systematic comparisons provide practical guidelines for selecting a proper extrapolation method depending on the available information, desired accuracy, and required inference speed.
translated by 谷歌翻译
相位场建模是一种有效但计算昂贵的方法,用于捕获材料中的中尺度形态和微观结构演化。因此,需要快速且可推广的替代模型来减轻计算征税流程的成本,例如在材料的优化和设计中。尖锐相边界的存在所产生的物理现象的固有不连续性使替代模型的训练繁琐。我们开发了一个框架,该框架将卷积自动编码器架构与深神经操作员(DeepOnet)集成在一起,以了解两相混合物的动态演化,并加速预测微结构演变的时间。我们利用卷积自动编码器在低维的潜在空间中提供微观结构数据的紧凑表示。 DeepOnet由两个子网络组成,一个用于编码固定数量的传感器位置(分支网)的输入函数,另一个用于编码输出功能的位置(TRUNK NET),了解微观结构Evolution的中尺度动力学从自动编码器潜在空间。然后,卷积自动编码器的解码器部分从deponet预测中重建了时间进化的微结构。然后,可以使用训练有素的DeepOnet架构来替换插值任务中的高保真相位数值求解器或在外推任务中加速数值求解器。
translated by 谷歌翻译
事实证明,神经操作员是无限维函数空间之间非线性算子的强大近似值,在加速偏微分方程(PDE)的溶液方面是有希望的。但是,它需要大量的模拟数据,这些数据可能成本高昂,从而导致鸡肉 - 蛋的困境并限制其在求解PDE中的使用。为了摆脱困境,我们提出了一个无数据的范式,其中神经网络直接从由离散的PDE构成的平方平方残留(MSR)损失中学习物理。我们研究了MSR损失中的物理信息,并确定神经网络必须具有对PDE空间域中的远距离纠缠建模的挑战,PDE的空间域中的模式在不同的PDE中有所不同。因此,我们提出了低级分解网络(Lordnet),该网络可调节,并且也有效地建模各种纠缠。具体而言,Lordnet通过简单的完全连接的层学习了与全球纠缠的低级别近似值,从而以降低的计算成本来提取主要模式。关于解决泊松方程和纳维尔 - 长方式方程的实验表明,MSR损失的物理约束可以提高神经网络的精确度和泛化能力。此外,Lordnet在PDE中的其他现代神经网络体系结构都优于最少的参数和最快的推理速度。对于Navier-Stokes方程式,学习的运算符的速度比具有相同计算资源的有限差异解决方案快50倍。
translated by 谷歌翻译
我们提出了一种使用一组我们称为神经基函数(NBF)的神经网络来求解部分微分方程(PDE)的方法。这个NBF框架是POD DeepOnet操作方法的一种新颖的变化,我们将一组神经网络回归到降低的阶正合成分解(POD)基础上。然后将这些网络与分支网络结合使用,该分支网络摄入规定的PDE的参数以计算降低的订单近似值。该方法适用于高速流条件的稳态EULER方程(Mach 10-30),在该方程式中,我们考虑了围绕圆柱体的2D流,从而形成了冲击条件。然后,我们将NBF预测用作高保真计算流体动力学(CFD)求解器(CFD ++)的初始条件,以显示更快的收敛性。还将介绍用于培训和实施该算法的经验教训。
translated by 谷歌翻译
我们为由随机微分方程(SDE)控制的物理系统提出了一种新型的灰色盒建模算法。所提出的方法(称为深物理校正器(DPC))将用SDE代表的物理学与深神经网络(DNN)相结合。这里的主要思想是利用DNN来建模缺失的物理学。我们假设将不完整的物理与数据相结合将使模型可解释并允许更好地概括。与随机模拟器的训练替代模型相关的主要瓶颈通常与选择合适的损耗函数有关。在文献中可用的不同损失函数中,我们在DPC中使用有条件的最大平均差异(CMMD)损失函数,因为其证明了其性能。总体而言,物理数据融合和CMMD允许DPC从稀疏数据中学习。我们说明了拟议的DPC在文献中的四个基准示例上的性能。获得的结果高度准确,表明它可能将其作为随机模拟器的替代模型的应用。
translated by 谷歌翻译
即将到来的技术,例如涉及安全至关重要应用的数字双胞胎,自主和人工智能系统,需要准确,可解释,计算上有效且可推广的模型。不幸的是,两种最常用的建模方法,基于物理学的建模(PBM)和数据驱动的建模(DDM)无法满足所有这些要求。在当前的工作中,我们演示了将最佳PBM和DDM结合的混合方法如何导致模型可以胜过两者的模型。我们这样做是通过基于第一原则与黑匣子DDM相结合的偏微分方程,在这种情况下,深度神经网络模型补偿了未知物理。首先,我们提出了一个数学论点,说明为什么这种方法应该起作用,然后将混合方法应用于未知的源项模拟二维热扩散问题。结果证明了该方法在准确性和概括性方面的出色性能。此外,它显示了如何在混合框架中解释DDM部分以使整体方法可靠。
translated by 谷歌翻译
神经运营商最近成为设计神经网络形式的功能空间之间的解决方案映射的流行工具。不同地,从经典的科学机器学习方法,以固定分辨率为输入参数的单个实例学习参数,神经运算符近似PDE系列的解决方案图。尽管他们取得了成功,但是神经运营商的用途迄今为止仅限于相对浅的神经网络,并限制了学习隐藏的管理法律。在这项工作中,我们提出了一种新颖的非局部神经运营商,我们将其称为非本体内核网络(NKN),即独立的分辨率,其特征在于深度神经网络,并且能够处理各种任务,例如学习管理方程和分类图片。我们的NKN源于神经网络的解释,作为离散的非局部扩散反应方程,在无限层的极限中,相当于抛物线非局部方程,其稳定性通过非本种载体微积分分析。与整体形式的神经运算符相似允许NKN捕获特征空间中的远程依赖性,而节点到节点交互的持续处理使NKNS分辨率独立于NKNS分辨率。与神经杂物中的相似性,在非本体意义上重新解释,并且层之间的稳定网络动态允许NKN的最佳参数从浅到深网络中的概括。这一事实使得能够使用浅层初始化技术。我们的测试表明,NKNS在学习管理方程和图像分类任务中占据基线方法,并概括到不同的分辨率和深度。
translated by 谷歌翻译