在本文中,我们为开关系统提供了一种基于神经网络的自适应学习(DNN-AL)方法。当前,基于神经网络的深度方法是为了学习未知动态系统中的方程式而积极开发的,但是它们的效率可能会因离散时间时存在结构变化而对开关系统退化。在这种新的DNN-AL策略中,观察到的数据集被自适应分解为子集,因此每个子集中没有结构性变化。在自适应过程中,DNN是层次结构的,并逐渐识别出未知的切换时间。尤其是,重复使用先前迭代步骤的网络参数以初始化后期迭代步骤的网络,从而为DNN提供有效的培训程序。对于通过我们的DNN-AL获得的DNN,建立了预测误差的界限。进行了数值研究以证明DNN-AL的效率。
translated by 谷歌翻译
在广泛的应用程序中,从观察到的数据中识别隐藏的动态是一项重大且具有挑战性的任务。最近,线性多步法方法(LMM)和深度学习的结合已成功地用于发现动力学,而对这种方法进行完整的收敛分析仍在开发中。在这项工作中,我们考虑了基于网络的深度LMM,以发现动态。我们使用深网的近似属性提出了这些方法的错误估计。它指出,对于某些LMMS的家庭,$ \ ell^2 $网格错误由$ O(H^p)$的总和和网络近似错误,其中$ h $是时间步长和$P $是本地截断错误顺序。提供了几个物理相关示例的数值结果,以证明我们的理论。
translated by 谷歌翻译
本文介绍了一种基于Krnet(ADDA-KR)的自适应深度近似策略,用于求解稳态Fokker-Planck(F-P)方程。 F-P方程通常是高维度和在无限域上定义的,这限制了基于传统网格的数值方法的应用。通过Knothe-Rosenblatt重新排列,我们的新提出的基于流的生成模型称为KrNet,提供了一种概率密度函数的家族,以作为Fokker-Planck方程的有效解决方案候选者,这与传统的计算方法较弱的维度依赖性较弱并且可以有效地估计一般的高维密度函数。为了获得用于F-P方程的近似的有效随机搭配点,我们开发了一种自适应采样过程,其中使用每次迭代的近似密度函数来迭代地生成样本。我们介绍了ADDA-KR的一般框架,验证了其准确性并通过数值实验展示了其效率。
translated by 谷歌翻译
Relying on recent research results on Neural ODEs, this paper presents a methodology for the design of state observers for nonlinear systems based on Neural ODEs, learning Luenberger-like observers and their nonlinear extension (Kazantzis-Kravaris-Luenberger (KKL) observers) for systems with partially-known nonlinear dynamics and fully unknown nonlinear dynamics, respectively. In particular, for tuneable KKL observers, the relationship between the design of the observer and its trade-off between convergence speed and robustness is analysed and used as a basis for improving the robustness of the learning-based observer in training. We illustrate the advantages of this approach in numerical simulations.
translated by 谷歌翻译
This paper proposes Friedrichs learning as a novel deep learning methodology that can learn the weak solutions of PDEs via a minmax formulation, which transforms the PDE problem into a minimax optimization problem to identify weak solutions. The name "Friedrichs learning" is for highlighting the close relationship between our learning strategy and Friedrichs theory on symmetric systems of PDEs. The weak solution and the test function in the weak formulation are parameterized as deep neural networks in a mesh-free manner, which are alternately updated to approach the optimal solution networks approximating the weak solution and the optimal test function, respectively. Extensive numerical results indicate that our mesh-free method can provide reasonably good solutions to a wide range of PDEs defined on regular and irregular domains in various dimensions, where classical numerical methods such as finite difference methods and finite element methods may be tedious or difficult to be applied.
translated by 谷歌翻译
连续数据的优化问题出现在,例如强大的机器学习,功能数据分析和变分推理。这里,目标函数被给出为一个(连续)索引目标函数的系列 - 相对于概率测量集成的族聚集。这些问题通常可以通过随机优化方法解决:在随机切换指标执行关于索引目标函数的优化步骤。在这项工作中,我们研究了随机梯度下降算法的连续时间变量,以进行连续数据的优化问题。该所谓的随机梯度过程包括最小化耦合与确定索引的连续时间索引过程的索引目标函数的梯度流程。索引过程是例如,反射扩散,纯跳跃过程或紧凑空间上的其他L evy过程。因此,我们研究了用于连续数据空间的多种采样模式,并允许在算法的运行时进行模拟或流式流的数据。我们分析了随机梯度过程的近似性质,并在恒定下进行了长时间行为和遍历的学习率。我们以噪声功能数据的多项式回归问题以及物理知识的神经网络在多项式回归问题中结束了随机梯度过程的适用性。
translated by 谷歌翻译
我们因与Relu神经网络的参数双曲标量保护定律的近似值所产生的误差得出了严格的界限。我们表明,通过克服维度诅咒的relu神经网络,可以使近似误差尽可能小。此外,我们在训练误差,训练样本数量和神经网络大小方面提供了明确的上限。理论结果通过数值实验说明。
translated by 谷歌翻译
本文涉及一种特殊类型的Lyapunov功能,即Zubov方程的解决方案。这种功能可用于表征常微分方程的系统的吸引领域。我们派生并证明了Zubov等式的一体形式解决方案。对于数值计算,我们开发了两个数据驱动方法。一个基于差分方程的增强系统的集成;另一个是基于深度学习。前者对于具有相对低的状态空间尺寸的系统是有效的,并且后者是为高维问题开发的。深度学习方法应用于新英格兰10发电机电力系统模型。我们证明了电力系统的Lyapunov功能存在神经网络近似,使得近似误差是发电机数量的立方多项式。证明了作为n的函数的误差收敛速率,是神经元数量的函数。
translated by 谷歌翻译
在本文中,我们提出了一个深度学习架构,以将差异性差异与身份近似。我们考虑一个表单的控制系统$ \ dot x = \ sum_ {i = 1}^lf_i(x)u_i $,在控件中具有线性依赖性,我们使用相应的流程来近似差异性对差异性的作用紧凑的积分合奏。尽管控制系统的简单性,但最近已证明通用近似属性仍然存在。最小化训练误差和正规化项的总和的问题会导致在可接受控制的空间中引起梯度流。离散时间神经网络的可能培训程序包括将梯度流投射到可允许控件的有限维子空间上。另一种方法依赖于基于Pontryagin的最大原理的迭代方法来解决最佳控制问题的数值。在这里,由于系统在控制变量中的线性依赖性,可以以极低的计算工作来实现哈密顿量的最大化。
translated by 谷歌翻译
在本文中,我们提出了一种基于深度学习的数值方案,用于强烈耦合FBSDE,这是由随机控制引起的。这是对深度BSDE方法的修改,其中向后方程的初始值不是一个免费参数,并且新的损失函数是控制问题的成本的加权总和,而差异项与与该的差异相吻合终端条件下的平均误差。我们通过一个数值示例表明,经典深度BSDE方法的直接扩展为FBSDE,失败了简单的线性季度控制问题,并激励新方法为何工作。在定期和有限性的假设上,对时间连续和时间离散控制问题的确切控制,我们为我们的方法提供了错误分析。我们从经验上表明,该方法收敛于三个不同的问题,一个方法是直接扩展Deep BSDE方法的问题。
translated by 谷歌翻译
In this paper, we carry out numerical analysis to prove convergence of a novel sample-wise back-propagation method for training a class of stochastic neural networks (SNNs). The structure of the SNN is formulated as discretization of a stochastic differential equation (SDE). A stochastic optimal control framework is introduced to model the training procedure, and a sample-wise approximation scheme for the adjoint backward SDE is applied to improve the efficiency of the stochastic optimal control solver, which is equivalent to the back-propagation for training the SNN. The convergence analysis is derived with and without convexity assumption for optimization of the SNN parameters. Especially, our analysis indicates that the number of SNN training steps should be proportional to the square of the number of layers in the convex optimization case. Numerical experiments are carried out to validate the analysis results, and the performance of the sample-wise back-propagation method for training SNNs is examined by benchmark machine learning examples.
translated by 谷歌翻译
基于合奏的大规模模拟动态系统对于广泛的科学和工程问题至关重要。模拟中使用的常规数值求解器受到时间整合的步长显着限制,这会阻碍效率和可行性,尤其是在需要高精度的情况下。为了克服这一限制,我们提出了一种数据驱动的校正方法,该方法允许使用大型步骤,同时补偿了积分误差以提高精度。该校正器以矢量值函数的形式表示,并通过神经网络建模以回归相空间中的误差。因此,我们将校正神经矢量(Neurvec)命名。我们表明,Neurvec可以达到与传统求解器具有更大步骤尺寸的传统求解器相同的准确性。我们从经验上证明,Neurvec可以显着加速各种数值求解器,并克服这些求解器的稳定性限制。我们关于基准问题的结果,从高维问题到混乱系统,表明Neurvec能够捕获主要的误差项并保持整体预测的统计数据。
translated by 谷歌翻译
物理信息的神经网络(PINN)是神经网络(NNS),它们作为神经网络本身的组成部分编码模型方程,例如部分微分方程(PDE)。如今,PINN是用于求解PDE,分数方程,积分分化方程和随机PDE的。这种新颖的方法已成为一个多任务学习框架,在该框架中,NN必须在减少PDE残差的同时拟合观察到的数据。本文对PINNS的文献进行了全面的综述:虽然该研究的主要目标是表征这些网络及其相关的优势和缺点。该综述还试图将出版物纳入更广泛的基于搭配的物理知识的神经网络,这些神经网络构成了香草·皮恩(Vanilla Pinn)以及许多其他变体,例如物理受限的神经网络(PCNN),各种HP-VPINN,变量HP-VPINN,VPINN,VPINN,变体。和保守的Pinn(CPINN)。该研究表明,大多数研究都集中在通过不同的激活功能,梯度优化技术,神经网络结构和损耗功能结构来定制PINN。尽管使用PINN的应用范围广泛,但通过证明其在某些情况下比有限元方法(FEM)等经典数值技术更可行的能力,但仍有可能的进步,最著名的是尚未解决的理论问题。
translated by 谷歌翻译
我们为特殊神经网络架构,称为运营商复发性神经网络的理论分析,用于近似非线性函数,其输入是线性运算符。这些功能通常在解决方案算法中出现用于逆边值问题的问题。传统的神经网络将输入数据视为向量,因此它们没有有效地捕获与对应于这种逆问题中的数据的线性运算符相关联的乘法结构。因此,我们介绍一个类似标准的神经网络架构的新系列,但是输入数据在向量上乘法作用。由较小的算子出现在边界控制中的紧凑型操作员和波动方程的反边值问题分析,我们在网络中的选择权重矩阵中促进结构和稀疏性。在描述此架构后,我们研究其表示属性以及其近似属性。我们还表明,可以引入明确的正则化,其可以从所述逆问题的数学分析导出,并导致概括属性上的某些保证。我们观察到重量矩阵的稀疏性改善了概括估计。最后,我们讨论如何将运营商复发网络视为深度学习模拟,以确定诸如用于从边界测量的声波方程中重建所未知的WAVESTED的边界控制的算法算法。
translated by 谷歌翻译
我们提出了一种基于物理知识的随机投影神经网络的数值方法,用于解决常微分方程(ODES)的初始值问题(IVPS)的解决方案,重点是僵硬的问题。我们使用具有径向基函数的单个隐藏层来解决一个极端学习机,其具有宽度均匀分布的随机变量,而输入和隐藏层之间的权重的值设置为等于1。通过构造非线性代数方程的系统来获得IVPS的数值解决方案,该系统由高斯-Nythto方法通过Gauss-Newton方法解决了输出权重,以调整集成时间间隔的简单自适应方案。为了评估其性能,我们应用了四个基准僵硬IVPS解决方案的提议方法,即预热罗宾逊,梵德,罗伯和雇用问题。我们的方法与基于Dormand-Prince对的自适应跳动-Kutta方法进行比较,以及基于数值差分公式的可变步骤可变序列多步解算器,如\ texttt {ode45}和\ texttt {ode15s}所实现的MATLAB功能分别。我们表明所提出的方案产生良好的近似精度,从而优于\ texttt {ode45}和\ texttt {ode15s},尤其是在出现陡峭梯度的情况下。此外,我们的方法的计算时间与两种Matlab溶剂的计算时间用于实际目的。
translated by 谷歌翻译
差分方程管理的学习动态对于预测和控制科学和工程系统来说至关重要。神经常规方程(节点)是一种与微分方程集成的深度学习模型,最近是由于其对不规则样本的鲁棒性及其对高维输入的灵活性而流行的学习动态。然而,节点的训练对数值求解器的精度敏感,这使得节点的收敛不稳定,特别是对于不稳定的动态系统。在本文中,为了减少对数值求解器的依赖,我们建议提高节点训练中的监督信号。具体地,我们预先训练神经差分运算符(NDO)以输出衍生物的估计用作额外的监督信号。 NDO在一类基础函数上预先培训,并将这些功能的轨迹样本之间的映射学习到其衍生物。为了利用来自NDO的轨迹信号和估计的衍生工具,我们提出了一种称为NDO-Node的算法,其中损耗函数包含两个术语:真正轨迹样本的适应性以及由输出的估计衍生物的适应度预先训练的NDO。各种动力学的实验表明,我们提出的NDO-Node可以一致地用一个预先训练的NDO来改善预测精度。特别是对于僵硬的杂散,我们观察到与其他正则化方法相比,NDO-Node可以更准确地捕获动态的过渡。
translated by 谷歌翻译
学习如何随着时间的推移发展复杂的动态系统是系统识别中的关键挑战。对于安全关键系统,它通常是至关重要的,因为学习的模型保证会聚到一些均衡点。为此,当完全观察到各种时,用神经拉布诺夫函数规范的神经杂物是一种有希望的方法。然而,对于实际应用,部分观察是常态。正如我们将证明,未观察到的增强状态的初始化可能成为神经杂物余下的关键问题。为了减轻这个问题,我们建议增加该系统的历史历史。通过国家增强在离散时间系统中的启发,我们得到了神经延迟微分方程。基于古典时间延迟稳定性分析,我们展示了如何确保学习模型的稳定性,从理论上分析我们的方法。我们的实验表明其适用于稳定的系统识别部分观察到的系统和学习延迟反馈控制中的稳定反馈策略。
translated by 谷歌翻译
由于应用程序可用的数据越来越多,因此需要更有能力的学习模型来进行数据处理。我们遇到的数据通常具有某些嵌入式稀疏结构。也就是说,如果它们以适当的基础表示,则它们的能量可以集中于少数基础函数。本文致力于通过深层神经网络(DNN)具有稀疏的正则化具有多个参数的非线性偏微分方程解的自适应近似。指出DNN具有固有的多尺度结构,通过使用多个参数的惩罚来有利于自适应表达功能,我们开发具有多尺度稀疏正则化(SDNN)的DNN,用于有效地表示具有一定单调的功能。然后,我们将提出的SDNN应用于汉堡方程和schr \“ odinger方程的数值解。数值示例确认提出的SDNN生成的溶液稀疏而准确。
translated by 谷歌翻译
在这项工作中,我们提出了一种深度自适应采样(DAS)方法,用于求解部分微分方程(PDE),其中利用深神经网络近似PDE和深生成模型的解决方案,用于生成改进训练集的新的搭配点。 DAS的整体过程由两个组件组成:通过最小化训练集中的搭配点上的剩余损失来解决PDE,并生成新的训练集,以进一步提高电流近似解的准确性。特别地,我们将残差作为概率密度函数进行处理,并用一个被称为Krnet的深生成模型近似它。来自Krnet的新样品与残留物诱导的分布一致,即,更多样品位于大残留的区域中,并且较少的样品位于小残余区域中。类似于经典的自适应方法,例如自适应有限元,Krnet作为引导训练集的改进的错误指示器。与用均匀分布的搭配点获得的神经网络近似相比,发达的算法可以显着提高精度,特别是对于低规律性和高维问题。我们展示了一个理论分析,表明所提出的DAS方法可以减少误差并展示其与数值实验的有效性。
translated by 谷歌翻译
计算科学和统计推断中的许多应用都需要计算有关具有未知归一化常数的复杂高维分布以及这些常数的估计。在这里,我们开发了一种基于从简单的基本分布生成样品,沿着速度场生成的流量运输的方法,并沿这些流程线执行平均值。这种非平衡重要性采样(NEIS)策略是直接实施的,可用于具有任意目标分布的计算。在理论方面,我们讨论了如何将速度场定制到目标,并建立所提出的估计器是一个完美的估计器,具有零变化。我们还通过将基本分布映射到目标上,通过传输图绘制了NEIS和方法之间的连接。在计算方面,我们展示了如何使用深度学习来代表神经网络,并将其训练为零方差最佳。这些结果在高维示例上进行了数值说明,我们表明训练速度场可以将NEIS估计量的方差降低至6个数量级,而不是Vanilla估计量。我们还表明,NEIS在这些示例上的表现要比NEAL的退火重要性采样(AIS)更好。
translated by 谷歌翻译