流体流动在自然和工程学科中是无所不在的。由于多种时空尺度上的非线性相互作用,可靠的流体计算是一种持久的挑战。可压缩的Navier-Stokes方程管理可压缩流动,并允许复杂的现象,如湍流和冲击。尽管硬件和软件具有巨大进展,但捕获流体流量的最小长度仍然引入了现实生活应用的禁止计算成本。我们目前目前目睹了对机器学习支持的数字方案设计的范式转变,作为解决上述问题的手段。虽然事先工作已经探索了用于单位或二维不可压缩的流体流量的可微分算法,但是我们向使用高阶状态的数值方法提供了一种用于计算可压缩流体流动的完全可微分的三维框架。首先,我们通过计算经典的二维和三维测试用例来展示我们的解决者的效率,包括强烈的冲击和过渡到湍流。其次,更重要的是,我们的框架允许结束到最终的优化来改进计算流体动力学算法内的现有数值方案。特别是,我们正在使用神经网络来替代传统的数控函数。
translated by 谷歌翻译
晶格Boltzmann方法(LBM)是一种用于计算流体力学及超越的有效仿真技术。它基于笛卡尔网格上的简单流和碰撞算法,这与现代机器学习架构很容易兼容。虽然变得越来越明显,深度学习可以为古典仿真技术提供决定性刺激,但最近的研究没有解决机器学习和LBM之间可能的连接。在这里,我们引入了生菜,基于Pytorch的LBM代码,具有三倍的目标。生菜使GPU加速计算具有最小源代码,便于LBM模型的快速原型设计,并且可以将LBM模拟与Pytorch的深度学习和自动分化设施集成在一起。作为与LBM组合机器学习的概念证明,开发了一种神经碰撞模型,在双周期性剪切层上训练,然后转移到不同的流动,衰减湍流。我们还举例说明了Pytorch自动差异化框架在流量控制和优化中的增加的好处。为此,保持强制各向同性湍流的光谱,而无需进一步约束速度场。源代码可从https://github.com/lettucecfd/lettuce自由使用。
translated by 谷歌翻译
尽管在整个科学和工程中都无处不在,但只有少数部分微分方程(PDE)具有分析或封闭形式的解决方案。这激发了有关PDE的数值模拟的大量经典工作,最近,对数据驱动技术的研究旋转了机器学习(ML)。最近的一项工作表明,与机器学习的经典数值技术的混合体可以对任何一种方法提供重大改进。在这项工作中,我们表明,在纳入基于物理学的先验时,数值方案的选择至关重要。我们以基于傅立叶的光谱方法为基础,这些光谱方法比其他数值方案要高得多,以模拟使用平滑且周期性解决方案的PDE。具体而言,我们为流体动力学的三个模型PDE开发了ML增强的光谱求解器,从而提高了标准光谱求解器在相同分辨率下的准确性。我们还展示了一些关键设计原则,用于将机器学习和用于解决PDE的数值方法结合使用。
translated by 谷歌翻译
具有经典数字求解器的湍流模拟需要非常高分辨率的网格来准确地解决动态。在这里,我们以低空间和时间分辨率培训学习模拟器,以捕获高分辨率产生的湍流动态。我们表明我们所提出的模型可以比各种科学相关指标的相同低分辨率的经典数字求解器更准确地模拟湍流动态。我们的模型从数据训练结束到底,能够以低分辨率学习一系列挑战性的混乱和动态动态,包括最先进的雅典娜++发动机产生的轨迹。我们表明,我们的更简单,通用体系结构优于来自所学到的湍流模拟文献的各种专业的湍流特异性架构。一般来说,我们看到学习的模拟器产生不稳定的轨迹;但是,我们表明调整训练噪音和时间下采样解决了这个问题。我们还发现,虽然超出培训分配的泛化是学习模型,训练噪声,卷积架构以及增加损失约束的挑战。广泛地,我们得出的结论是,我们所知的模拟器优于传统的求解器在较粗糙的网格上运行,并强调简单的设计选择可以提供稳定性和鲁棒的泛化。
translated by 谷歌翻译
数据驱动的湍流建模正在经历数据科学算法和硬件开发后的兴趣激增。我们讨论了一种使用可区分物理范式的方法,该方法将已知的物理学与机器学习结合起来,以开发汉堡湍流的闭合模型。我们将1D汉堡系统视为一种原型测试问题,用于建模以对流为主的湍流问题中未解决的术语。我们训练一系列模型,这些模型在后验损失函数上结合了不同程度的物理假设,以测试模型在一系列系统参数(包括粘度,时间和网格分辨率)上的疗效。我们发现,以部分微分方程形式的归纳偏差的约束模型包含已知物理或现有闭合方法会产生高度数据效率,准确和可推广的模型,并且表现优于最先进的基准。以物理信息形式添加结构还为模型带来了一定程度的解释性,可能为封闭建模的未来提供了垫脚石。
translated by 谷歌翻译
机器学习正迅速成为科学计算的核心技术,并有许多机会推进计算流体动力学领域。从这个角度来看,我们强调了一些潜在影响最高的领域,包括加速直接数值模拟,以改善湍流闭合建模,并开发增强的减少订单模型。我们还讨论了机器学习的新兴领域,这对于计算流体动力学以及应考虑的一些潜在局限性是有希望的。
translated by 谷歌翻译
在本文中,我们根据卷积神经网络训练湍流模型。这些学到的湍流模型改善了在模拟时为不可压缩的Navier-Stokes方程的溶解不足的低分辨率解。我们的研究涉及开发可区分的数值求解器,该求解器通过多个求解器步骤支持优化梯度的传播。这些属性的重要性是通过那些模型的出色稳定性和准确性来证明的,这些模型在训练过程中展开了更多求解器步骤。此外,我们基于湍流物理学引入损失项,以进一步提高模型的准确性。这种方法应用于三个二维的湍流场景,一种均匀的腐烂湍流案例,一个暂时进化的混合层和空间不断发展的混合层。与无模型模拟相比,我们的模型在长期A-posterii统计数据方面取得了重大改进,而无需将这些统计数据直接包含在学习目标中。在推论时,我们提出的方法还获得了相似准确的纯粹数值方法的实质性改进。
translated by 谷歌翻译
Machine learning-based modeling of physical systems has experienced increased interest in recent years. Despite some impressive progress, there is still a lack of benchmarks for Scientific ML that are easy to use but still challenging and representative of a wide range of problems. We introduce PDEBench, a benchmark suite of time-dependent simulation tasks based on Partial Differential Equations (PDEs). PDEBench comprises both code and data to benchmark the performance of novel machine learning models against both classical numerical simulations and machine learning baselines. Our proposed set of benchmark problems contribute the following unique features: (1) A much wider range of PDEs compared to existing benchmarks, ranging from relatively common examples to more realistic and difficult problems; (2) much larger ready-to-use datasets compared to prior work, comprising multiple simulation runs across a larger number of initial and boundary conditions and PDE parameters; (3) more extensible source codes with user-friendly APIs for data generation and baseline results with popular machine learning models (FNO, U-Net, PINN, Gradient-Based Inverse Method). PDEBench allows researchers to extend the benchmark freely for their own purposes using a standardized API and to compare the performance of new models to existing baseline methods. We also propose new evaluation metrics with the aim to provide a more holistic understanding of learning methods in the context of Scientific ML. With those metrics we identify tasks which are challenging for recent ML methods and propose these tasks as future challenges for the community. The code is available at https://github.com/pdebench/PDEBench.
translated by 谷歌翻译
数值模拟中信息丢失可能来自各种来源,同时求解离散的部分微分方程。特别地,与等效的64位模拟相比,使用低精确的16位浮点算术进行模拟时,与精度相关的错误可能会积累在关注量中。在这里,低精度计算所需的资源要比高精度计算要低得多。最近提出的几种机器学习(ML)技术已成功纠正空间离散化引起的错误。在这项工作中,我们扩展了这些技术,以改善使用低数值精度进行的计算流体动力学(CFD)模拟。我们首先量化了在Kolmogorov强制湍流测试案例中累积的精度相关误差。随后,我们采用了卷积神经网络以及执行16位算术的完全可区分的数值求解器,以学习紧密耦合的ML-CFD混合求解器。与16位求解器相比,我们证明了ML-CFD混合求解器在减少速度场中的误差积累并在较高频率下改善动能光谱的功效。
translated by 谷歌翻译
这本数字本书包含在物理模拟的背景下与深度学习相关的一切实际和全面的一切。尽可能多,所有主题都带有Jupyter笔记本的形式的动手代码示例,以便快速入门。除了标准的受监督学习的数据中,我们将看看物理丢失约束,更紧密耦合的学习算法,具有可微分的模拟,以及加强学习和不确定性建模。我们生活在令人兴奋的时期:这些方法具有从根本上改变计算机模拟可以实现的巨大潜力。
translated by 谷歌翻译
Efficient simulation of the Navier-Stokes equations for fluid flow is a long standing problem in applied mathematics, for which state-of-the-art methods require large compute resources. In this work, we propose a data-driven approach that leverages the approximation power of deep-learning with the precision of standard solvers to obtain fast and highly realistic simulations. Our method solves the incompressible Euler equations using the standard operator splitting method, in which a large sparse linear system with many free parameters must be solved. We use a Convolutional Network with a highly tailored architecture, trained using a novel unsupervised learning framework to solve the linear system. We present real-time 2D and 3D simulations that outperform recently proposed data-driven methods; the obtained results are realistic and show good generalization properties.
translated by 谷歌翻译
物理信息的神经网络(PINN)是神经网络(NNS),它们作为神经网络本身的组成部分编码模型方程,例如部分微分方程(PDE)。如今,PINN是用于求解PDE,分数方程,积分分化方程和随机PDE的。这种新颖的方法已成为一个多任务学习框架,在该框架中,NN必须在减少PDE残差的同时拟合观察到的数据。本文对PINNS的文献进行了全面的综述:虽然该研究的主要目标是表征这些网络及其相关的优势和缺点。该综述还试图将出版物纳入更广泛的基于搭配的物理知识的神经网络,这些神经网络构成了香草·皮恩(Vanilla Pinn)以及许多其他变体,例如物理受限的神经网络(PCNN),各种HP-VPINN,变量HP-VPINN,VPINN,VPINN,变体。和保守的Pinn(CPINN)。该研究表明,大多数研究都集中在通过不同的激活功能,梯度优化技术,神经网络结构和损耗功能结构来定制PINN。尽管使用PINN的应用范围广泛,但通过证明其在某些情况下比有限元方法(FEM)等经典数值技术更可行的能力,但仍有可能的进步,最著名的是尚未解决的理论问题。
translated by 谷歌翻译
深度学习的繁荣激发了渴望整合这两个领域的计算流体动力学的研究人员和实践者。PINN(物理信息神经网络)方法就是这样的尝试。尽管文献中的大多数报告都显示出应用PINN方法的积极结果,但我们对其进行了实验扼杀了这种乐观。这项工作介绍了我们使用PINN解决两个基本流量问题的不成功的故事:2D Taylor-Green Vortex at $ re = 100 $ = 100 $和2D缸流,$ re re = 200 $。 Pinn方法解决了2D Taylor-Green涡流问题,并以可接受的结果为基础,我们将这种流程作为精度和性能基准。 Pinn方法的准确性需要大约32个小时的训练,以使$ 16 \ times 16 $有限差异模拟的准确性不到20秒。另一方面,2D气缸流甚至没有导致物理溶液。 Pinn方法的表现像稳态的求解器,没有捕获涡流脱落现象。通过分享我们的经验,我们要强调的是,Pinn方法仍然是一种正在进行的工作。需要更多的工作来使Pinn对于现实世界中的问题可行。
translated by 谷歌翻译
我们提出了一个开源的可区分的声学模拟器J-Wave,可以解决时变和时谐音的声学问题。它支持自动差异化,这是一种具有许多应用程序的程序转换技术,尤其是在机器学习和科学计算中。J-Wave由模块化组件组成,可以轻松定制和重复使用。同时,它与一些最受欢迎的机器学习库(例如JAX和TensorFlow)兼容。对于广泛使用的K-Wave工具箱和一系列声学仿真软件,评估了已知配置的仿真结果的准确性。可从https://github.com/ucl-bug/jwave获得J-Wave。
translated by 谷歌翻译
当系统中有某些未知术语和隐藏的物理机制时,基于第一原理的复杂物理系统的管理方程可能会非常具有挑战性。在这项工作中,我们采用深度学习体系结构来学习基于从完全动力学模型中获取的数据的等离子体系统的流体部分微分方程(PDE)。证明了学到的多臂流体PDE可以融合诸如Landau阻尼等动力学效应。基于学习的流体闭合,数据驱动的多音阶流体建模可以很好地再现从完全动力学模型中得出的所有物理量。Landau阻尼的计算阻尼率与完全动力学的模拟和线性理论一致。用于复杂物理系统的PDE的数据驱动的流体建模可以应用于改善流体闭合并降低全球系统多规模建模的计算成本。
translated by 谷歌翻译
湍流无处不在,获得有效,准确且可概括的订单模型仍然是一个具有挑战性的问题。该手稿开发了减少拉格朗日模型的湍流模型的层次结构,以研究和比较在拉格朗日框架内实施平滑的粒子流体动力学(SPH)结构与嵌入神经网络(NN)作为通用函数近似器中的效果。 SPH是用于近似流体力学方程的无网格拉格朗日方法。从基于神经网络(NN)的拉格朗日加速运算符的参数化开始,该层次结构逐渐结合了一个弱化和参数化的SPH框架,该框架可以执行物理对称性和保护定律。开发了两个新的参数化平滑核,其中包含在完全参数化的SPH模拟器中,并与立方和四分之一的平滑核进行了比较。对于每个模型,我们使用基于梯度的优化最小化的不同损耗函数,其中使用自动分化(AD)和灵敏度分析(SA)获得了有效的梯度计算。每个模型均经过两个地面真理(GT)数据集训练,该数据集与每周可压缩的均质各向同性湍流(hit),(1)使用弱压缩SPH的验证集,(2)来自直接数值模拟(DNS)的高忠诚度集。数值证据表明:(a)对“合成” SPH数据的方法验证; (b)嵌入在SPH框架中近似状态方程的NN的能力; (b)每个模型都能插入DNS数据; (c)编码更多的SPH结构可提高对不同湍流的马赫数和时间尺度的普遍性; (d)引入两个新型参数化平滑核可提高SPH比标准平滑核的准确性。
translated by 谷歌翻译
气候,化学或天体物理学中的数值模拟在计算上对于高分辨率下的不确定性定量或参数探索而言太昂贵。减少或替代模型的多个数量级更快,但是传统的替代物是僵化或不准确和纯机器学习(ML)基于基于数据的替代物。我们提出了一个混合,灵活的替代模型,该模型利用已知的物理学来模拟大规模动力学,并将学习到难以模拟的项,该术语称为参数化或闭合,并捕获了细界面对大型动力学的影响。利用神经操作员,我们是第一个学习独立于网格的,非本地和灵活的参数化的人。我们的\ textit {多尺度神经操作员}是由多尺度建模的丰富文献进行的,具有准线性运行时复杂性,比最先进的参数化更准确或更灵活,并且在混乱方程的多尺度lorenz96上证明。
translated by 谷歌翻译
我们提出了一个机器学习框架,该框架将图像超分辨率技术与级别测量方法中的被动标量传输融为一体。在这里,我们研究是否可以计算直接数据驱动的校正,以最大程度地减少界面的粗晶石演化中的数值粘度。拟议的系统的起点是半拉格朗日配方。并且,为了减少数值耗散,我们引入了一个易于识别的多层感知器。该神经网络的作用是改善数值估计的表面轨迹。为此,它在单个时间范围内处理局部级别集,速度和位置数据,以便在移动前部附近的选择顶点。因此,我们的主要贡献是一种新型的机器学习调音算法,该算法与选择性重新融为一体并与常规对流交替运行,以保持调整后的界面轨迹平滑。因此,我们的程序比基于全卷卷积的应用更有效,因为它仅在自由边界周围集中计算工作。同样,我们通过各种测试表明,我们的策略有效地抵消了数值扩散和质量损失。例如,在简单的对流问题中,我们的方法可以达到与基线方案相同的精度,分辨率是分辨率的两倍,但成本的一小部分。同样,我们的杂种技术可以产生可行的固化前端,以进行结晶过程。另一方面,切向剪切流和高度变形的模拟会导致偏置伪像和推理恶化。同样,严格的设计速度约束可以将我们的求解器的应用限制为涉及快速接口更改的问题。在后一种情况下,我们已经确定了几个机会来增强鲁棒性,而没有放弃我们的方法的基本概念。
translated by 谷歌翻译
机器学习(ML)技术,尤其是神经网络的应用在处理图像和语言时已经看到了巨大的成功。这是因为我们经常缺乏正式模型来了解视觉和音频输入,所以这里的神经网络可以展开它们的能力,因为它们可以仅从数据模型。在物理领域,我们通常具有在正式水平上合理地描述自然过程的模型。尽管如此,近年来,ML也已证明在这些领域中有用,通过加快数值模拟或通过提高准确性来实现。古典物理学中的一个重要且迄今为止未解决的问题是了解湍流流体运动。在这项工作中,我们通过使用Gledzer-Ohkitani-Yamada(Goy)壳模型来构建强烈简化的湍流表示。通过该系统,我们打算研究ML支持和物理受限的小型湍流建模的潜力。而不是标准监督学习,我们提出了一种方法,该方法旨在重建湍流的统计特性,例如自我相似的惯性范围缩放,我们可以实现令人鼓舞的实验结果。此外,我们在用微分方程结合机器学习时讨论陷阱。
translated by 谷歌翻译
地球系统模型(ESM)是数十年到几个世纪以来时间尺度上未来地球系统状态的主要工具,尤其是在响应人为的温室气体释放方面。最先进的ESM可以重现过去150年的观测全球平均温度异常。然而,ESM需要进一步的改进,最重要的是(i)(i)其气候灵敏度的估计,即对大气温室气体升高的温度响应,(ii)诸如温度和降水等关键变量的建模空间模式,例如,(iii)它们对极端天气事件的表示,以及(iv)它们对多稳定地球系统组件的表示及其预测相关突然过渡的能力。在这里,我们认为,使ESMS自动可区分具有巨大的潜力来推进ESM,尤其是在这些主要缺点方面。首先,自动可差度将允许对ESM的客观校准,即,对于大量自由参数的成本函数的最佳值选择,目前主要是手动调整的。其次,机器学习的最新进展(ML)以及观察数据的数量,准确性和解决方案有望与以上一些方面有所帮助,因为ML可以使用ML将观察值的其他信息纳入ESMS。自动不同性是在构建此类混合模型的基本要素,将基于过程的ESM与ML组件相结合。我们记录了最新的工作,展示了自动分化的潜力,以实质上改进的数据知识ESM。
translated by 谷歌翻译