在本文中,我们证明了储层计算可用于学习浅水方程的动态。特别地,虽然储层计算的大多数先前的应用已经需要对特定轨迹的训练来说,以进一步预测沿着该轨迹的进化,我们展示了储层计算能力,以预测浅水方程的轨迹,初始条件下没有看到的初始条件培训过程。然而,在该设置中,我们发现网络的性能对于具有与训练数据集中的环境条件(例如总水质高度和平均速度)的初始条件恶化。为了避免这种缺陷,我们引入了一种转移学习方法,其中使用相关环境条件的小额额外训练步骤来改善预测。
translated by 谷歌翻译
众所周知,混乱的系统对预测的挑战是挑战,因为它们对时间的敏感性和由于阶梯时间而引起的错误和错误。尽管这种不可预测的行为,但对于许多耗散系统,长期轨迹的统计数据仍受到一套被称为全球吸引子的不变措施的管辖。对于许多问题,即使状态空间是无限的维度,该集合是有限维度的。对于马尔可夫系统,长期轨迹的统计特性由解决方案操作员唯一确定,该解决方案操作员将系统的演变映射到任意正时间增量上。在这项工作中,我们提出了一个机器学习框架,以学习耗散混沌系统的基础解决方案操作员,这表明所得的学习操作员准确地捕获了短期轨迹和长期统计行为。使用此框架,我们能够预测湍流Kolmogorov流动动力学的各种统计数据,雷诺数为5000。
translated by 谷歌翻译
这项工作探讨了物理驱动的机器学习技术运算符推理(IMIPF),以预测混乱的动力系统状态。 OPINF提供了一种非侵入性方法来推断缩小空间中多项式操作员的近似值,而无需访问离散模型中出现的完整订单操作员。物理系统的数据集是使用常规数值求解器生成的,然后通过主成分分析(PCA)投影到低维空间。在潜在空间中,设置了一个最小二乘问题以适合二次多项式操作员,该操作员随后在时间整合方案中使用,以便在同一空间中产生外推。解决后,将对逆PCA操作进行重建原始空间中的外推。通过标准化的根平方误差(NRMSE)度量评估了OPINF预测的质量,从中计算有效的预测时间(VPT)。考虑混乱系统Lorenz 96和Kuramoto-Sivashinsky方程的数值实验显示,具有VPT范围的OPINF降低订单模型的有希望的预测能力,这些模型均超过了最先进的机器学习方法,例如返回和储层计算循环新的Neural网络[1 ],以及马尔可夫神经操作员[2]。
translated by 谷歌翻译
Data-driven modeling has become a key building block in computational science and engineering. However, data that are available in science and engineering are typically scarce, often polluted with noise and affected by measurement errors and other perturbations, which makes learning the dynamics of systems challenging. In this work, we propose to combine data-driven modeling via operator inference with the dynamic training via roll outs of neural ordinary differential equations. Operator inference with roll outs inherits interpretability, scalability, and structure preservation of traditional operator inference while leveraging the dynamic training via roll outs over multiple time steps to increase stability and robustness for learning from low-quality and noisy data. Numerical experiments with data describing shallow water waves and surface quasi-geostrophic dynamics demonstrate that operator inference with roll outs provides predictive models from training trajectories even if data are sampled sparsely in time and polluted with noise of up to 10%.
translated by 谷歌翻译
在本文中,我们考虑了与未知(或部分未知),非平稳性,潜在的嘈杂和混乱的时间演变相关的机器学习(ML)任务,以预测临界点过渡和长期尖端行为动力系统。我们专注于特别具有挑战性的情况,在过去的情况下,过去的动态状态时间序列主要是在状态空间的受限区域中,而要预测的行为会在ML未完全观察到的较大状态空间集中演变出来训练期间的模型。在这种情况下,要求ML预测系统能够推断出在训练过程中观察到的不同动态。我们研究了ML方法在多大程度上能够为此任务完成有用的结果以及它们失败的条件。通常,我们发现即使在极具挑战性的情况下,ML方法也出奇地有效,但是(正如人们所期望的)``需要``太多''的外推。基于科学知识的传统建模的ML方法,因此即使单独采取行动时,我们发现的混合预测系统也可以实现有用的预测。我们还发现,实现有用的结果可能需要使用使用非常仔细选择的ML超参数,我们提出了一个超参数优化策略来解决此问题。本文的主要结论是,基于ML (也许是由于临界点的穿越)包括在训练数据探索的集合中的动态。
translated by 谷歌翻译
储层计算机(RCS)是所有神经网络训练最快的计算机之一,尤其是当它们与其他经常性神经网络进行比较时。 RC具有此优势,同时仍能很好地处理顺序数据。但是,由于该模型对其超参数(HPS)的敏感性,RC的采用率滞后于其他神经网络模型。文献中缺少一个自动调谐这些参数的现代统一软件包。手动调整这些数字非常困难,传统网格搜索方法的成本呈指数增长,随着所考虑的HP数量,劝阻RC的使用并限制了可以设计的RC模型的复杂性。我们通过引入RCTORCH来解决这些问题,Rctorch是一种基于Pytorch的RC神经网络软件包,具有自动HP调整。在本文中,我们通过使用它来预测不同力的驱动摆的复杂动力学来证明rctorch的实用性。这项工作包括编码示例。示例Python Jupyter笔记本可以在我们的GitHub存储库https://github.com/blindedjoy/rctorch上找到,可以在https://rctorch.readthedocs.io/上找到文档。
translated by 谷歌翻译
Machine learning-based modeling of physical systems has experienced increased interest in recent years. Despite some impressive progress, there is still a lack of benchmarks for Scientific ML that are easy to use but still challenging and representative of a wide range of problems. We introduce PDEBench, a benchmark suite of time-dependent simulation tasks based on Partial Differential Equations (PDEs). PDEBench comprises both code and data to benchmark the performance of novel machine learning models against both classical numerical simulations and machine learning baselines. Our proposed set of benchmark problems contribute the following unique features: (1) A much wider range of PDEs compared to existing benchmarks, ranging from relatively common examples to more realistic and difficult problems; (2) much larger ready-to-use datasets compared to prior work, comprising multiple simulation runs across a larger number of initial and boundary conditions and PDE parameters; (3) more extensible source codes with user-friendly APIs for data generation and baseline results with popular machine learning models (FNO, U-Net, PINN, Gradient-Based Inverse Method). PDEBench allows researchers to extend the benchmark freely for their own purposes using a standardized API and to compare the performance of new models to existing baseline methods. We also propose new evaluation metrics with the aim to provide a more holistic understanding of learning methods in the context of Scientific ML. With those metrics we identify tasks which are challenging for recent ML methods and propose these tasks as future challenges for the community. The code is available at https://github.com/pdebench/PDEBench.
translated by 谷歌翻译
在许多学科中,动态系统的数据信息预测模型的开发引起了广泛的兴趣。我们提出了一个统一的框架,用于混合机械和机器学习方法,以从嘈杂和部分观察到的数据中识别动态系统。我们将纯数据驱动的学习与混合模型进行比较,这些学习结合了不完善的域知识。我们的公式与所选的机器学习模型不可知,在连续和离散的时间设置中都呈现,并且与表现出很大的内存和错误的模型误差兼容。首先,我们从学习理论的角度研究无内存线性(W.R.T.参数依赖性)模型误差,从而定义了过多的风险和概括误差。对于沿阵行的连续时间系统,我们证明,多余的风险和泛化误差都通过与T的正方形介于T的术语(指定训练数据的时间间隔)的术语界定。其次,我们研究了通过记忆建模而受益的方案,证明了两类连续时间复发性神经网络(RNN)的通用近似定理:两者都可以学习与内存有关的模型误差。此外,我们将一类RNN连接到储层计算,从而将学习依赖性错误的学习与使用随机特征在Banach空间之间进行监督学习的最新工作联系起来。给出了数值结果(Lorenz '63,Lorenz '96多尺度系统),以比较纯粹的数据驱动和混合方法,发现混合方法较少,渴望数据较少,并且更有效。最后,我们从数值上证明了如何利用数据同化来从嘈杂,部分观察到的数据中学习隐藏的动态,并说明了通过这种方法和培训此类模型来表示记忆的挑战。
translated by 谷歌翻译
在本文中,我们为非稳定于3D流体结构交互系统提供了一种基于深度学习的阶数(DL-ROM)。所提出的DL-ROM具有非线性状态空间模型的格式,并采用具有长短期存储器(LSTM)的经常性神经网络。我们考虑一种以状态空间格式的可弹性安装的球体的规范流体结构系统,其具有不可压缩的流体流动。我们开发了一种非线性数据驱动的耦合,用于预测横向方向自由振动球的非定常力和涡旋诱导的振动(VIV)锁定。我们设计输入输出关系作为用于流体结构系统的低维逼近的力和位移数据集的时间序列。基于VIV锁定过程的先验知识,输入功能包含一系列频率和幅度,其能够实现高效的DL-ROM,而无需用于低维建模的大量训练数据集。一旦训练,网络就提供了输入 - 输出动态的非线性映射,其可以通过反馈过程预测较长地平线的耦合流体结构动态。通过将LSTM网络与Eigensystem实现算法(时代)集成,我们构造了用于减少阶稳定性分析的数据驱动状态空间模型。我们通过特征值选择过程调查VIV的潜在机制和稳定性特征。为了了解频率锁定机制,我们研究了针对降低振荡频率和质量比的范围的特征值轨迹。与全阶模拟一致,通过组合的LSTM-ERA程序精确捕获频率锁定分支。所提出的DL-ROM与涉及流体结构相互作用的物理学数字双胞胎的基于物理的数字双胞胎。
translated by 谷歌翻译
从图像识别和对象检测到语音识别和机器翻译,神经网络已经证明是非常成功的广泛复杂任务。他们的成功之一是给出了适当的训练数据集的未来动态的技能。以前的研究表明,回声状态网络(ESNS)是如何成功地预测比Lyapunov时间长时间的混乱系统。本研究表明,显着的是,ESN可以成功地预测与训练集中包含的任何行为不同的动态行为。提供了用于流体动力学问题的证据,其中流动可以在层流(有序)和湍流(无序)的制度之间过渡。尽管仅受到湍流制度培训,但发现ESNS被发现预测层流行为。此外,还预先预测了湍流到层状和层流动转变的统计数据,并且讨论了ESN在作为转变过渡的早期预警系统中的效用。这些结果预计将广泛适用于在一系列物理,气候,生物,生态和金融模型中的数据行为建模,其特征在于在几个竞争状态之间存在折射点和突然过渡的存在。
translated by 谷歌翻译
基于时间序列观测数据,数据同化技术广泛用于预测具有不确定性的复杂动态系统。错误协方差矩阵建模是数据同化算法中的重要元素,其可以大大影响预测精度。这些协方差通常依赖于经验假设和物理限制的估计通常是不精确的,并且计算昂贵的昂贵,特别是对于大维度的系统。在这项工作中,我们提出了一种基于长短短期存储器(LSTM)经常性神经网络(RNN)的数据驱动方法,以提高观察协方差规范的准确性和效率的动态系统中的数据同化。与观察/模拟时间序列数据学习协方差矩阵,不同的方法不需要任何关于先前错误分布的知识或假设,而不是经典的后调整方法。我们将新的方法与两个最先进的协方差调谐算法进行了比较,即DI01和D05,首先在Lorenz动态系统中,然后在2D浅水双实验框架中,使用集合同化使用不同的协方差参数化。这种新方法在观察协方差规范,同化精度和计算效率方面具有显着的优势。
translated by 谷歌翻译
我们开发一种方法来构造来自表示基本上非线性(或不可连锁的)动态系统的数据集构成低维预测模型,其中具有由有限许多频率的外部强制进行外部矫正的双曲线线性部分。我们的数据驱动,稀疏,非线性模型获得为低维,吸引动力系统的光谱子纤维(SSM)的降低的动态的延长正常形式。我们说明了数据驱动的SSM降低了高维数值数据集的功率和涉及梁振荡,涡旋脱落和水箱中的晃动的实验测量。我们发现,在未加工的数据上培训的SSM减少也在额外的外部强制下准确预测非线性响应。
translated by 谷歌翻译
大坝破洪水中波传播的计算预测是流体动力和水文学中的长期问题。到目前为止,基于圣人方程的常规数值模型是主要方法。在这里,我们表明,以最少的数据训练的机器学习模型可以帮助预测一维大坝破洪水的长期动态行为,其精度令人满意。为此,我们使用lax-wendroff数值方案为一维大坝洪水方案求解了圣人方程,并通过模拟结果训练储层计算机网络(RC-ESN),由模拟结果组成时间序列深度。我们展示了RC-ESN模型的良好预测能力,该模型预测波传播行为286在大坝破洪水中,均方根误差(RMSE)小于0.01,表现优于传统的长期短期内存(LSTM)模型仅达到仅81个时步的可比RMSE。为了显示RC-ESN模型的性能,我们还提供了有关关键参数(包括训练集大小,储层大小和光谱半径)的预测准确性的灵敏度分析。结果表明,RC-ESN较少依赖训练集尺寸,介质储层尺寸k = 1200〜2600就足够了。我们确认光谱半径\ r {ho}对预测准确性显示了复杂的影响,并建议当前较小的光谱半径\ r {ho}。通过更改大坝断裂的初始流程深度,我们还得出了一个结论,即RC-ESN的预测范围大于LSTM的预测范围。
translated by 谷歌翻译
Recent work has shown that machine learning (ML) models can be trained to accurately forecast the dynamics of unknown chaotic dynamical systems. Such ML models can be used to produce both short-term predictions of the state evolution and long-term predictions of the statistical patterns of the dynamics (``climate''). Both of these tasks can be accomplished by employing a feedback loop, whereby the model is trained to predict forward one time step, then the trained model is iterated for multiple time steps with its output used as the input. In the absence of mitigating techniques, however, this technique can result in artificially rapid error growth, leading to inaccurate predictions and/or climate instability. In this article, we systematically examine the technique of adding noise to the ML model input during training as a means to promote stability and improve prediction accuracy. Furthermore, we introduce Linearized Multi-Noise Training (LMNT), a regularization technique that deterministically approximates the effect of many small, independent noise realizations added to the model input during training. Our case study uses reservoir computing, a machine-learning method using recurrent neural networks, to predict the spatiotemporal chaotic Kuramoto-Sivashinsky equation. We find that reservoir computers trained with noise or with LMNT produce climate predictions that appear to be indefinitely stable and have a climate very similar to the true system, while reservoir computers trained without regularization are unstable. Compared with other types of regularization that yield stability in some cases, we find that both short-term and climate predictions from reservoir computers trained with noise or with LMNT are substantially more accurate. Finally, we show that the deterministic aspect of our LMNT regularization facilitates fast hyperparameter tuning when compared to training with noise.
translated by 谷歌翻译
在本文中,我们根据卷积神经网络训练湍流模型。这些学到的湍流模型改善了在模拟时为不可压缩的Navier-Stokes方程的溶解不足的低分辨率解。我们的研究涉及开发可区分的数值求解器,该求解器通过多个求解器步骤支持优化梯度的传播。这些属性的重要性是通过那些模型的出色稳定性和准确性来证明的,这些模型在训练过程中展开了更多求解器步骤。此外,我们基于湍流物理学引入损失项,以进一步提高模型的准确性。这种方法应用于三个二维的湍流场景,一种均匀的腐烂湍流案例,一个暂时进化的混合层和空间不断发展的混合层。与无模型模拟相比,我们的模型在长期A-posterii统计数据方面取得了重大改进,而无需将这些统计数据直接包含在学习目标中。在推论时,我们提出的方法还获得了相似准确的纯粹数值方法的实质性改进。
translated by 谷歌翻译
储层计算是一种机器学习方法,可以生成动态系统的替代模型。它可以使用较少的可训练参数来学习基础动力系统,从而比竞争方法更少。最近,一种更简单的公式(称为下一代储层计算)可以去除许多算法的元掌握器,并识别出良好的传统储层计算机,从而进一步简化了训练。在这里,我们研究了一个特别具有挑战性的问题,即学习具有不同时间尺度和多个共存动态状态(吸引子)的动态系统。我们使用量化地面真相和预测吸引子的几何形状的指标比较了下一代和传统的储层计算机。对于所研究的四维系统,下一代储层计算方法使用$ \ sim 1.7 \ times $少培训数据,需要$ 10^3 \ times $ $ shorter $ shorter“热身”时间,具有$ \ \ \ \ \ \ \ \ \ \ \ \ \ SIM 100 \ times $与传统的储层计算机相比,预测共存吸引人特性的精度更高。此外,我们证明了它以高精度预测吸引力的盆地。这项工作为动态系统的这种新机器学习算法的出色学习能力提供了进一步的支持。
translated by 谷歌翻译
尽管在整个科学和工程中都无处不在,但只有少数部分微分方程(PDE)具有分析或封闭形式的解决方案。这激发了有关PDE的数值模拟的大量经典工作,最近,对数据驱动技术的研究旋转了机器学习(ML)。最近的一项工作表明,与机器学习的经典数值技术的混合体可以对任何一种方法提供重大改进。在这项工作中,我们表明,在纳入基于物理学的先验时,数值方案的选择至关重要。我们以基于傅立叶的光谱方法为基础,这些光谱方法比其他数值方案要高得多,以模拟使用平滑且周期性解决方案的PDE。具体而言,我们为流体动力学的三个模型PDE开发了ML增强的光谱求解器,从而提高了标准光谱求解器在相同分辨率下的准确性。我们还展示了一些关键设计原则,用于将机器学习和用于解决PDE的数值方法结合使用。
translated by 谷歌翻译
在概述中,引入了通用数学对象(映射),并解释了其与模型物理参数化的关系。引入了可用于模拟和/或近似映射的机器学习(ML)工具。ML的应用在模拟现有参数化,开发新的参数化,确保物理约束和控制开发应用程序的准确性。讨论了一些允许开发人员超越标准参数化范式的ML方法。
translated by 谷歌翻译
We present an end-to-end framework to learn partial differential equations that brings together initial data production, selection of boundary conditions, and the use of physics-informed neural operators to solve partial differential equations that are ubiquitous in the study and modeling of physics phenomena. We first demonstrate that our methods reproduce the accuracy and performance of other neural operators published elsewhere in the literature to learn the 1D wave equation and the 1D Burgers equation. Thereafter, we apply our physics-informed neural operators to learn new types of equations, including the 2D Burgers equation in the scalar, inviscid and vector types. Finally, we show that our approach is also applicable to learn the physics of the 2D linear and nonlinear shallow water equations, which involve three coupled partial differential equations. We release our artificial intelligence surrogates and scientific software to produce initial data and boundary conditions to study a broad range of physically motivated scenarios. We provide the source code, an interactive website to visualize the predictions of our physics informed neural operators, and a tutorial for their use at the Data and Learning Hub for Science.
translated by 谷歌翻译
物理信息的神经网络(PINN)是神经网络(NNS),它们作为神经网络本身的组成部分编码模型方程,例如部分微分方程(PDE)。如今,PINN是用于求解PDE,分数方程,积分分化方程和随机PDE的。这种新颖的方法已成为一个多任务学习框架,在该框架中,NN必须在减少PDE残差的同时拟合观察到的数据。本文对PINNS的文献进行了全面的综述:虽然该研究的主要目标是表征这些网络及其相关的优势和缺点。该综述还试图将出版物纳入更广泛的基于搭配的物理知识的神经网络,这些神经网络构成了香草·皮恩(Vanilla Pinn)以及许多其他变体,例如物理受限的神经网络(PCNN),各种HP-VPINN,变量HP-VPINN,VPINN,VPINN,变体。和保守的Pinn(CPINN)。该研究表明,大多数研究都集中在通过不同的激活功能,梯度优化技术,神经网络结构和损耗功能结构来定制PINN。尽管使用PINN的应用范围广泛,但通过证明其在某些情况下比有限元方法(FEM)等经典数值技术更可行的能力,但仍有可能的进步,最著名的是尚未解决的理论问题。
translated by 谷歌翻译