我们训练一个神经网络模型,以预测宇宙N体模拟的全相空间演化。它的成功表明,神经网络模型正在准确地近似绿色的功能扩展,该功能将模拟的初始条件与其在深层非线性方向上的后期结合到结果。我们通过评估其在具有已知精确解决方案或充分理解扩展的简单情况下的良好理解的简单案例上的表现来测试这种近似值的准确性。这些场景包括球形构型,隔离平面波和两个相互作用的平面波:与用于训练的高斯随机场有很大不同的初始条件。我们发现我们的模型可以很好地推广到这些良好理解的方案,这表明网络已经推断了一般的物理原理,并从复杂的随机高斯训练数据中学习了非线性模式耦合。这些测试还为查找模型的优势和劣势以及确定改进模型的策略提供了有用的诊断。我们还测试了仅包含横向模式的初始条件,该模式的模式不仅在其相位上有所不同,而且还与训练集中使用的纵向生长模式相比。当网络遇到与训练集正交的这些初始条件时,该模型将完全失败。除了这些简单的配置外,我们还评估了模型对N体模拟的标准初始条件的密度,位移和动量功率谱的预测。我们将这些摘要统计数据与N体结果和称为COLA的近似快速模拟方法进行了比较。我们的模型在$ k \ sim 1 \ \ mathrm {mpc}^{ - 1} \,h $的非线性尺度上达到百分比精度,代表了对COLA的显着改进。
translated by 谷歌翻译
我们为宇宙结构形成构建了一个场级模拟器,该模拟器在非线性方案中是准确的。我们的仿真器由两个卷积神经网络组成,这些神经网络训练有素,可根据其线性输入输出N体模拟粒子的非线性位移和速度。宇宙学的依赖性是在神经网络的每一层上以样式参数的形式编码的,从而使模拟器能够有效地插入了在广泛的背景问题范围内,不同扁平$ \ lambda $ cdm宇宙之间的结构形成结果。神经网络体系结构使模型可通过构造来区分,从而为快速场水平推断提供了强大的工具。我们通过考虑几个摘要统计数据,包括具有和不带红移空间扭曲的密度谱,位移功率谱,动量功率谱,密度双光谱,光晕丰度以及带有红移空间的光晕概况,并没有红移空间,我们可以测试方法的准确性。扭曲。我们将模拟器中的这些统计数据与完整的N体结果,可乐方法和没有宇宙学依赖性的基准神经网络进行了比较。我们发现我们的仿真器将准确的结果降至$ k \ sim 1 \ \ mathrm {mpc}^{ - 1} \,h $,代表对COLA和基金神经网络的可观改进。我们还证明,我们的模拟器很好地概括到包含原始非高斯性的初始条件,而无需任何其他样式参数或再培训。
translated by 谷歌翻译
我们将图形神经网络训练来自小工具N体模拟的光晕目录的神经网络,以执行宇宙学参数的无现场级别可能的推断。目录包含$ \ Lessim $ 5,000 HAROS带质量$ \ gtrsim 10^{10} 〜h^{ - 1} m_ \ odot $,定期卷为$(25〜H^{ - 1} {\ rm mpc}){\ rm mpc}) ^3 $;目录中的每个光环都具有多种特性,例如位置,质量,速度,浓度和最大圆速度。我们的模型构建为置换,翻译和旋转的不变性,不施加最低限度的规模来提取信息,并能够以平均值来推断$ \ omega _ {\ rm m} $和$ \ sigma_8 $的值$ \ sim6 \%$的相对误差分别使用位置加上速度和位置加上质量。更重要的是,我们发现我们的模型非常强大:他们可以推断出使用数千个N-n-Body模拟的Halo目录进行测试时,使用五个不同的N-进行测试时,在使用Halo目录进行测试时,$ \ omega _ {\ rm m} $和$ \ sigma_8 $身体代码:算盘,Cubep $^3 $ M,Enzo,PKDGrav3和Ramses。令人惊讶的是,经过培训的模型推断$ \ omega _ {\ rm m} $在对数千个最先进的骆驼水力动力模拟进行测试时也可以使用,该模拟使用四个不同的代码和子网格物理实现。使用诸如浓度和最大循环速度之类的光环特性允许我们的模型提取更多信息,而牺牲了模型的鲁棒性。这可能会发生,因为不同的N体代码不会在与这些参数相对应的相关尺度上收敛。
translated by 谷歌翻译
我们提出了一种新方案,以补偿粒子网(PM)方案产生的小规模近似值。这种模拟是大规模结构的快速和低计算成本实现,但缺乏小规模的分辨率。为了提高其准确性,我们在模拟的微分方程中引入了额外的有效力,该方程是由作用于PM估计的引力电位的傅立叶空间神经网络参数化的。我们将获得功率谱的结果与PGD方案(潜在梯度下降方案)获得的结果进行了比较。我们注意到功率谱的项有类似的改进,但是我们发现我们的方法在互相关系数方面的表现优于PGD,并且对模拟设置的变化(不同的分辨率,不同的宇宙学)的变化更为强大。
translated by 谷歌翻译
这本数字本书包含在物理模拟的背景下与深度学习相关的一切实际和全面的一切。尽可能多,所有主题都带有Jupyter笔记本的形式的动手代码示例,以便快速入门。除了标准的受监督学习的数据中,我们将看看物理丢失约束,更紧密耦合的学习算法,具有可微分的模拟,以及加强学习和不确定性建模。我们生活在令人兴奋的时期:这些方法具有从根本上改变计算机模拟可以实现的巨大潜力。
translated by 谷歌翻译
具有经典数字求解器的湍流模拟需要非常高分辨率的网格来准确地解决动态。在这里,我们以低空间和时间分辨率培训学习模拟器,以捕获高分辨率产生的湍流动态。我们表明我们所提出的模型可以比各种科学相关指标的相同低分辨率的经典数字求解器更准确地模拟湍流动态。我们的模型从数据训练结束到底,能够以低分辨率学习一系列挑战性的混乱和动态动态,包括最先进的雅典娜++发动机产生的轨迹。我们表明,我们的更简单,通用体系结构优于来自所学到的湍流模拟文献的各种专业的湍流特异性架构。一般来说,我们看到学习的模拟器产生不稳定的轨迹;但是,我们表明调整训练噪音和时间下采样解决了这个问题。我们还发现,虽然超出培训分配的泛化是学习模型,训练噪声,卷积架构以及增加损失约束的挑战。广泛地,我们得出的结论是,我们所知的模拟器优于传统的求解器在较粗糙的网格上运行,并强调简单的设计选择可以提供稳定性和鲁棒的泛化。
translated by 谷歌翻译
湍流无处不在,获得有效,准确且可概括的订单模型仍然是一个具有挑战性的问题。该手稿开发了减少拉格朗日模型的湍流模型的层次结构,以研究和比较在拉格朗日框架内实施平滑的粒子流体动力学(SPH)结构与嵌入神经网络(NN)作为通用函数近似器中的效果。 SPH是用于近似流体力学方程的无网格拉格朗日方法。从基于神经网络(NN)的拉格朗日加速运算符的参数化开始,该层次结构逐渐结合了一个弱化和参数化的SPH框架,该框架可以执行物理对称性和保护定律。开发了两个新的参数化平滑核,其中包含在完全参数化的SPH模拟器中,并与立方和四分之一的平滑核进行了比较。对于每个模型,我们使用基于梯度的优化最小化的不同损耗函数,其中使用自动分化(AD)和灵敏度分析(SA)获得了有效的梯度计算。每个模型均经过两个地面真理(GT)数据集训练,该数据集与每周可压缩的均质各向同性湍流(hit),(1)使用弱压缩SPH的验证集,(2)来自直接数值模拟(DNS)的高忠诚度集。数值证据表明:(a)对“合成” SPH数据的方法验证; (b)嵌入在SPH框架中近似状态方程的NN的能力; (b)每个模型都能插入DNS数据; (c)编码更多的SPH结构可提高对不同湍流的马赫数和时间尺度的普遍性; (d)引入两个新型参数化平滑核可提高SPH比标准平滑核的准确性。
translated by 谷歌翻译
泊松方程至关重要,以获得用于霍尔效应推进器和炉射线放电的等离子体流体模拟中的自我一致的解决方案,因为泊松解决方案看起来是不稳定的非线性流动方程的源期。作为第一步,使用多尺度架构研究了使用深神经网络的零小小的边界条件的求解2D泊松方程,以分支机构,深度和接收领域的数量定义。一个关键目标是更好地了解神经网络如何学习泊松解决方案,并提供指导方针来实现最佳网络配置,特别是当耦合到具有等离子体源术语的时变欧拉方程时。这里,发现接收领域对于正确捕获场的大拓扑结构至关重要。对多种架构,损失和封锁的调查提供了最佳的网络来准确解决稳定的泊松问题。然后在具有越来越多的节点的网格上监测称为Plasmanet的最佳神经网络求解器的性能,并与经典平行的线性溶剂进行比较。接下来,在电子等离子体振荡测试盒的上下文中,Plasmanet与不稳定的欧拉等离子体流体方程求解器联接。在这一时间不断发展的问题中,需要物理损失来产生稳定的模拟。最终测试了涉及化学和平流的更复杂的放电繁殖案例。应用了先前部分中建立的指导方针,以构建CNN,以解决具有不同边界条件的圆柱形坐标中的相同泊松方程。结果揭示了良好的CNN预测,并利用现代GPU的硬件铺平了新的计算策略,以预测涉及泊松方程的不稳定问题。
translated by 谷歌翻译
This work presents a set of neural network (NN) models specifically designed for accurate and efficient fluid dynamics forecasting. In this work, we show how neural networks training can be improved by reducing data complexity through a modal decomposition technique called higher order dynamic mode decomposition (HODMD), which identifies the main structures inside flow dynamics and reconstructs the original flow using only these main structures. This reconstruction has the same number of samples and spatial dimension as the original flow, but with a less complex dynamics and preserving its main features. We also show the low computational cost required by the proposed NN models, both in their training and inference phases. The core idea of this work is to test the limits of applicability of deep learning models to data forecasting in complex fluid dynamics problems. Generalization capabilities of the models are demonstrated by using the same neural network architectures to forecast the future dynamics of four different multi-phase flows. Data sets used to train and test these deep learning models come from Direct Numerical Simulations (DNS) of these flows.
translated by 谷歌翻译
在卷积神经网络(CNNS)上建立的生成深度学习方法提供了一种用于预测宇宙学中非线性结构的伟大工具。在这项工作中,我们预测大规模的高分辨率暗物质晕,只有低分辨率暗物质的模拟。这是通过将降低的分辨率映射到共享相同宇宙学,初始条件和盒子尺寸的仿真的更高分辨率密度字段来实现。要将结构降低到8倍的质量分辨率,我们使用U-Net的变化与条件GaN,产生直观地和统计地匹配高分辨率目标的输出。这表明我们的方法可用于从低分辨率模拟通过具有可忽略的计算工作的低分辨率模拟产生高分辨率密度输出。
translated by 谷歌翻译
最近,与神经网络的时间相关微分方程的解决方案最近引起了很多关注。核心思想是学习控制解决方案从数据演变的法律,该数据可能会被随机噪声污染。但是,与其他机器学习应用相比,通常对手头的系统了解很多。例如,对于许多动态系统,诸如能量或(角度)动量之类的物理量是完全保守的。因此,神经网络必须从数据中学习这些保护定律,并且仅由于有限的训练时间和随机噪声而被满足。在本文中,我们提出了一种替代方法,该方法使用Noether的定理将保护定律本质地纳入神经网络的体系结构。我们证明,这可以更好地预测三个模型系统:在三维牛顿引力潜能中非偏见粒子的运动,Schwarzschild指标中庞大的相对论粒子的运动和两个相互作用的粒子在四个相互作用的粒子系统中的运动方面。
translated by 谷歌翻译
暗物质光环的质量分布是初始密度扰动通过质量积聚和合并的层次增长的结果。我们使用一个可解释的机器学习框架来提供对暗物质光环的球形平均质量概况的起源的物理见解。我们训练梯度促进的树算法,以预测聚类大小的光环的最终质量曲线,并衡量提供给算法的不同输入的重要性。我们在初始条件(ICS)中找到了两个主要量表,它们影响最终的质量曲线:大约在Haloes的Lagrangian Patch $ r_l $($ r \ sim 0.7 \,r_l $)的比例下的密度,并且在大型中-scale环境($ r \ sim 1.7〜r_l $)。该模型还标识了光环组装历史记录中的三个主要时间尺度,这些时间尺度影响最终轮廓:(i)晕圈内病毒化的,折叠的材料的形成时间,(ii)动态时间,捕获动态无移动的,插入的动态时间光环的第一个轨道(iii)的组成部分是第三个,最近的时间尺度,它捕获了对最近大规模合并事件外部特征的影响。尽管内部轮廓保留了IC的内存,但仅此信息就不足以对外部轮廓产生准确的预测。当我们添加有关Haloes的质量积聚历史的信息时,我们发现所有半径的预测概况都有显着改善。我们的机器学习框架为ICS和质量组装历史的作用提供了新的见解,并在确定集群大小的光环的最终质量概况中。
translated by 谷歌翻译
在本文中,我们为非稳定于3D流体结构交互系统提供了一种基于深度学习的阶数(DL-ROM)。所提出的DL-ROM具有非线性状态空间模型的格式,并采用具有长短期存储器(LSTM)的经常性神经网络。我们考虑一种以状态空间格式的可弹性安装的球体的规范流体结构系统,其具有不可压缩的流体流动。我们开发了一种非线性数据驱动的耦合,用于预测横向方向自由振动球的非定常力和涡旋诱导的振动(VIV)锁定。我们设计输入输出关系作为用于流体结构系统的低维逼近的力和位移数据集的时间序列。基于VIV锁定过程的先验知识,输入功能包含一系列频率和幅度,其能够实现高效的DL-ROM,而无需用于低维建模的大量训练数据集。一旦训练,网络就提供了输入 - 输出动态的非线性映射,其可以通过反馈过程预测较长地平线的耦合流体结构动态。通过将LSTM网络与Eigensystem实现算法(时代)集成,我们构造了用于减少阶稳定性分析的数据驱动状态空间模型。我们通过特征值选择过程调查VIV的潜在机制和稳定性特征。为了了解频率锁定机制,我们研究了针对降低振荡频率和质量比的范围的特征值轨迹。与全阶模拟一致,通过组合的LSTM-ERA程序精确捕获频率锁定分支。所提出的DL-ROM与涉及流体结构相互作用的物理学数字双胞胎的基于物理的数字双胞胎。
translated by 谷歌翻译
制定了具有机器学习模拟(骆驼)项目的宇宙学和天体物理学,通过数千名宇宙的流体动力模拟和机器学习将宇宙学与天体物理学结合起来。骆驼包含4,233个宇宙学仿真,2,049个n-body和2,184个最先进的流体动力模拟,在参数空间中采样巨大的体积。在本文中,我们介绍了骆驼公共数据发布,描述了骆驼模拟的特性和由它们产生的各种数据产品,包括光环,次麦,银河系和空隙目录,功率谱,Bispectra,Lyman - $ \ Alpha $光谱,概率分布函数,光环径向轮廓和X射线光子列表。我们还释放了超过骆驼 - 山姆的数十亿个星系的目录:与Santa Cruz半分析模型相结合的大量N身体模拟。我们释放包含350多个Terabytes的所有数据,并包含143,922个快照,数百万光环,星系和摘要统计数据。我们提供有关如何访问,下载,读取和处理数据AT \ URL {https://camels.readthedocs.io}的进一步技术详细信息。
translated by 谷歌翻译
我们开发一种方法来构造来自表示基本上非线性(或不可连锁的)动态系统的数据集构成低维预测模型,其中具有由有限许多频率的外部强制进行外部矫正的双曲线线性部分。我们的数据驱动,稀疏,非线性模型获得为低维,吸引动力系统的光谱子纤维(SSM)的降低的动态的延长正常形式。我们说明了数据驱动的SSM降低了高维数值数据集的功率和涉及梁振荡,涡旋脱落和水箱中的晃动的实验测量。我们发现,在未加工的数据上培训的SSM减少也在额外的外部强制下准确预测非线性响应。
translated by 谷歌翻译
众所周知,混乱的系统对预测的挑战是挑战,因为它们对时间的敏感性和由于阶梯时间而引起的错误和错误。尽管这种不可预测的行为,但对于许多耗散系统,长期轨迹的统计数据仍受到一套被称为全球吸引子的不变措施的管辖。对于许多问题,即使状态空间是无限的维度,该集合是有限维度的。对于马尔可夫系统,长期轨迹的统计特性由解决方案操作员唯一确定,该解决方案操作员将系统的演变映射到任意正时间增量上。在这项工作中,我们提出了一个机器学习框架,以学习耗散混沌系统的基础解决方案操作员,这表明所得的学习操作员准确地捕获了短期轨迹和长期统计行为。使用此框架,我们能够预测湍流Kolmogorov流动动力学的各种统计数据,雷诺数为5000。
translated by 谷歌翻译
物理信息的神经网络(PINN)是神经网络(NNS),它们作为神经网络本身的组成部分编码模型方程,例如部分微分方程(PDE)。如今,PINN是用于求解PDE,分数方程,积分分化方程和随机PDE的。这种新颖的方法已成为一个多任务学习框架,在该框架中,NN必须在减少PDE残差的同时拟合观察到的数据。本文对PINNS的文献进行了全面的综述:虽然该研究的主要目标是表征这些网络及其相关的优势和缺点。该综述还试图将出版物纳入更广泛的基于搭配的物理知识的神经网络,这些神经网络构成了香草·皮恩(Vanilla Pinn)以及许多其他变体,例如物理受限的神经网络(PCNN),各种HP-VPINN,变量HP-VPINN,VPINN,VPINN,变体。和保守的Pinn(CPINN)。该研究表明,大多数研究都集中在通过不同的激活功能,梯度优化技术,神经网络结构和损耗功能结构来定制PINN。尽管使用PINN的应用范围广泛,但通过证明其在某些情况下比有限元方法(FEM)等经典数值技术更可行的能力,但仍有可能的进步,最著名的是尚未解决的理论问题。
translated by 谷歌翻译
理论不确定性限制了我们从诸如Thermal Sunyaev-Zel'Dovich(TSZ)效应等重的宇宙学信息中提取宇宙学信息的能力。 TSZ效应由电子压力场采购,取决于通常由昂贵的流体动力模拟建模的男性物理学。我们在Illustristng-300宇宙学模拟上训练神经网络,以预测仅重力模拟的星系簇中的连续电子压力场。对于神经网络而言,建模群集具有挑战性,因为大多数气体压力集中在少数体素中,甚至最大的流体动力模拟只包含几百个可以用于训练的簇。我们选择采用旋转等效的深度体系结构直接在暗物质颗粒集上运行,而不是传统的卷积神经网(CNN)体系结构。我们认为,基于集合的体系结构比CNN具有不同的优势。例如,我们可以执行精确的旋转和置换量比,并在TSZ领域中纳入现有的知识,并与宇宙学标准的稀疏领域一起工作。我们使用单独的,物理上有意义的模块组成我们的体系结构,使其可以解释。例如,我们可以分别研究局部和集群尺度环境的影响,确定簇三轴性具有可忽略的影响,并训练一个纠正错误居中的模块。我们的模型在适合相同模拟数据的分析概况上提高了70%。我们认为,电子压力场被视为仅重力模拟的函数,具有固有的随机性,并通过向网络的条件vae扩展进行建模。这种修饰可进一步提高7%,但受我们的小型培训集的限制。 (简略)
translated by 谷歌翻译
在本文中,我们根据卷积神经网络训练湍流模型。这些学到的湍流模型改善了在模拟时为不可压缩的Navier-Stokes方程的溶解不足的低分辨率解。我们的研究涉及开发可区分的数值求解器,该求解器通过多个求解器步骤支持优化梯度的传播。这些属性的重要性是通过那些模型的出色稳定性和准确性来证明的,这些模型在训练过程中展开了更多求解器步骤。此外,我们基于湍流物理学引入损失项,以进一步提高模型的准确性。这种方法应用于三个二维的湍流场景,一种均匀的腐烂湍流案例,一个暂时进化的混合层和空间不断发展的混合层。与无模型模拟相比,我们的模型在长期A-posterii统计数据方面取得了重大改进,而无需将这些统计数据直接包含在学习目标中。在推论时,我们提出的方法还获得了相似准确的纯粹数值方法的实质性改进。
translated by 谷歌翻译
We present an end-to-end framework to learn partial differential equations that brings together initial data production, selection of boundary conditions, and the use of physics-informed neural operators to solve partial differential equations that are ubiquitous in the study and modeling of physics phenomena. We first demonstrate that our methods reproduce the accuracy and performance of other neural operators published elsewhere in the literature to learn the 1D wave equation and the 1D Burgers equation. Thereafter, we apply our physics-informed neural operators to learn new types of equations, including the 2D Burgers equation in the scalar, inviscid and vector types. Finally, we show that our approach is also applicable to learn the physics of the 2D linear and nonlinear shallow water equations, which involve three coupled partial differential equations. We release our artificial intelligence surrogates and scientific software to produce initial data and boundary conditions to study a broad range of physically motivated scenarios. We provide the source code, an interactive website to visualize the predictions of our physics informed neural operators, and a tutorial for their use at the Data and Learning Hub for Science.
translated by 谷歌翻译