This is paper for the smooth function approximation by neural networks (NN). Mathematical or physical functions can be replaced by NN models through regression. In this study, we get NNs that generate highly accurate and highly smooth function, which only comprised of a few weight parameters, through discussing a few topics about regression. First, we reinterpret inside of NNs for regression; consequently, we propose a new activation function--integrated sigmoid linear unit (ISLU). Then special charateristics of metadata for regression, which is different from other data like image or sound, is discussed for improving the performance of neural networks. Finally, the one of a simple hierarchical NN that generate models substituting mathematical function is presented, and the new batch concept ``meta-batch" which improves the performance of NN several times more is introduced. The new activation function, meta-batch method, features of numerical data, meta-augmentation with metaparameters, and a structure of NN generating a compact multi-layer perceptron(MLP) are essential in this study.
translated by 谷歌翻译
We investigate how neural networks (NNs) understand physics using 1D quantum mechanics. After training an NN to accurately predict energy eigenvalues from potentials, we used it to confirm the NN's understanding of physics from four different aspects. The trained NN could predict energy eigenvalues of different kinds of potentials than the ones learned, predict the probability distribution of the existence of particles not used during training, reproduce untrained physical phenomena, and predict the energy eigenvalues of potentials with an unknown matter effect. These results show that NNs can learn physical laws from experimental data, predict the results of experiments under conditions different from those used for training, and predict physical quantities of types not provided during training. Because NNs understand physics in a different way than humans, they will be a powerful tool for advancing physics by complementing the human way of understanding.
translated by 谷歌翻译
功能响应对一组标量预测变量的回归可能是一项具有挑战性的任务,尤其是如果有大量预测因子,这些预测因子具有交互作用,或者这些预测因子与响应之间的关系是非线性的。在这项工作中,我们为此问题提出了一个解决方案:馈送前向神经网络(NN),旨在预测使用标量输入的功能响应。首先,我们将功能响应转换为有限维表示,然后构建了输出此表示形式的NN。我们提出了不同的目标功能来训练NN。所提出的模型适用于定期和不规则间隔的数据,还提供了多种方法来应用粗糙度惩罚以控制预测曲线的平滑度。实现这两个功能的困难在于可以反向传播的目标函数的定义。在我们的实验中,我们证明了我们的模型在多种情况下优于常规尺度回归模型,同时计算缩放的尺寸更好。
translated by 谷歌翻译
受生物神经元的启发,激活功能在许多现实世界中常用的任何人工神经网络的学习过程中起着重要作用。文献中已经提出了各种激活功能,用于分类和回归任务。在这项工作中,我们调查了过去已经使用的激活功能以及当前的最新功能。特别是,我们介绍了多年来激活功能的各种发展以及这些激活功能的优势以及缺点或局限性。我们还讨论了经典(固定)激活功能,包括整流器单元和自适应激活功能。除了基于表征的激活函数的分类法外,还提出了基于应用的激活函数的分类法。为此,对MNIST,CIFAR-10和CIFAR-100等分类数据集进行了各种固定和自适应激活函数的系统比较。近年来,已经出现了一个具有物理信息的机器学习框架,以解决与科学计算有关的问题。为此,我们还讨论了在物理知识的机器学习框架中使用的激活功能的各种要求。此外,使用Tensorflow,Pytorch和Jax等各种机器学习库之间进行了不同的固定和自适应激活函数进行各种比较。
translated by 谷歌翻译
这项调查的目的是介绍对深神经网络的近似特性的解释性回顾。具体而言,我们旨在了解深神经网络如何以及为什么要优于其他经典线性和非线性近似方法。这项调查包括三章。在第1章中,我们回顾了深层网络及其组成非线性结构的关键思想和概念。我们通过在解决回归和分类问题时将其作为优化问题来形式化神经网络问题。我们简要讨论用于解决优化问题的随机梯度下降算法以及用于解决优化问题的后传播公式,并解决了与神经网络性能相关的一些问题,包括选择激活功能,成本功能,过度适应问题和正则化。在第2章中,我们将重点转移到神经网络的近似理论上。我们首先介绍多项式近似中的密度概念,尤其是研究实现连续函数的Stone-WeierStrass定理。然后,在线性近似的框架内,我们回顾了馈电网络的密度和收敛速率的一些经典结果,然后在近似Sobolev函数中进行有关深网络复杂性的最新发展。在第3章中,利用非线性近似理论,我们进一步详细介绍了深度和近似网络与其他经典非线性近似方法相比的近似优势。
translated by 谷歌翻译
在过去的十年中,在许多工程领域,包括自动驾驶汽车,医疗诊断和搜索引擎,甚至在艺术创作中,神经网络(NNS)已被证明是极有效的工具。确实,NN通常果断地超过传统算法。直到最近才引起重大兴趣的一个领域是使用NNS设计数值求解器,尤其是用于离散的偏微分方程。最近的几篇论文考虑使用NNS来开发多机方法,这些方法是解决离散的偏微分方程和其他稀疏矩阵问题的领先计算工具。我们扩展了这些新想法,重点关注所谓的放松操作员(也称为Smoothers),这是Multigrid算法的重要组成部分,在这种情况下尚未受到很多关注。我们探索了一种使用NNS学习带有随机系数的扩散算子的放松参数的方法,用于雅各比类型的Smoothers和4Color Gaussseidel Smoothers。后者的产量异常高效且易于使连续的放松(SOR)SmoOthors平行。此外,这项工作表明,使用两个网格方法在相对较小的网格上学习放松参数,而Gelfand的公式可以轻松实现。这些方法有效地产生了几乎最佳的参数,从而显着提高了大网格上的Multigrid算法的收敛速率。
translated by 谷歌翻译
我们提出了一种基于图形神经网络(GNN)的端到端框架,以平衡通用网格中的功率流。优化被帧为监督的顶点回归任务,其中GNN培训以预测每个网格分支的电流和功率注入,从而产生功率流量平衡。通过将电网表示为与顶点的分支的线图,我们可以培训一个更准确和强大的GNN来改变底层拓扑。此外,通过使用专门的GNN层,我们能够构建一个非常深的架构,该架构占图表上的大街区,同时仅实现本地化操作。我们执行三个不同的实验来评估:i)使用深入GNN模型时使用本地化而不是全球运营的好处和趋势; ii)图形拓扑中对扰动的弹性;和iii)能力同时在多个网格拓扑上同时培训模型以及新的看不见网格的概括性的改进。拟议的框架是有效的,而且与基于深度学习的其他求解器相比,不仅对网格组件上的物理量而且对拓扑的物理量具有鲁棒性。
translated by 谷歌翻译
These notes were compiled as lecture notes for a course developed and taught at the University of the Southern California. They should be accessible to a typical engineering graduate student with a strong background in Applied Mathematics. The main objective of these notes is to introduce a student who is familiar with concepts in linear algebra and partial differential equations to select topics in deep learning. These lecture notes exploit the strong connections between deep learning algorithms and the more conventional techniques of computational physics to achieve two goals. First, they use concepts from computational physics to develop an understanding of deep learning algorithms. Not surprisingly, many concepts in deep learning can be connected to similar concepts in computational physics, and one can utilize this connection to better understand these algorithms. Second, several novel deep learning algorithms can be used to solve challenging problems in computational physics. Thus, they offer someone who is interested in modeling a physical phenomena with a complementary set of tools.
translated by 谷歌翻译
神经网络的可解释性及其潜在的理论行为仍然是一个开放的学习领域,即使在实际应用的巨大成功之后,特别是在深度学习的出现。在这项工作中,提出了NN2Poly:一种理论方法,允许获得提供已经训练的深神经网络的替代表示的多项式。这扩展了ARXIV中提出的先前想法:2102.03865,其仅限于单个隐藏层神经网络,以便在回归和分类任务中使用任意深度前馈神经网络。本文的目的是通过在每层的激活函数上使用泰勒膨胀来实现,然后使用若干组合性质,允许识别所需多项式的系数。讨论了实现本理论方法时的主要计算限制,并介绍了NN2POLY工作所必需的神经网络权重的约束的示例。最后,呈现了一些模拟,得出结论,使用NN2Poly可以获得给定神经网络的表示,并且在所获得的预测之间具有低误差。
translated by 谷歌翻译
对应用机器学习来研究动态系统有一波兴趣。特别地,已经应用神经网络来解决运动方程,因此追踪系统的演变。与神经网络和机器学习的其他应用相反,动态系统 - 根据其潜在的对称 - 具有诸如能量,动量和角动量的不变性。传统的数值迭代方法通常违反这些保护法,在时间上传播误差,并降低方法的可预测性。我们介绍了一个汉密尔顿神经网络,用于解决控制动态系统的微分方程。这种无监督的模型是学习解决方案,可以相同地满足哈密尔顿方程,因此哈密尔顿方程式满足。一旦优化了,所提出的架构被认为是一种杂项单元,因为引入了高效的参数的解决方案。另外,通过共享网络参数并选择适当的激活函数的选择大大提高了网络的可预测性。派生错误分析,并指出数值误差取决于整体网络性能。然后采用辛结构来解决非线性振荡器的方程和混沌HENON-HENEL动态系统。在两个系统中,杂项欧拉集成商需要两个订单比HAMILTONIAN网络更多的评估点,以便在预测的相空间轨迹中获得相同的数值误差顺序。
translated by 谷歌翻译
这本数字本书包含在物理模拟的背景下与深度学习相关的一切实际和全面的一切。尽可能多,所有主题都带有Jupyter笔记本的形式的动手代码示例,以便快速入门。除了标准的受监督学习的数据中,我们将看看物理丢失约束,更紧密耦合的学习算法,具有可微分的模拟,以及加强学习和不确定性建模。我们生活在令人兴奋的时期:这些方法具有从根本上改变计算机模拟可以实现的巨大潜力。
translated by 谷歌翻译
需要近似函数在科学中普遍存在,是由于经验限制或访问功能的高计算成本。在高能量物理学中,过程的散射横截面的精确计算需要评估计算密集的积分。机器学习中的各种方法已被用于解决这个问题,但缺乏使用一种方法的动机缺乏。比较这些方法通常高度依赖于手头的问题,因此我们指定了我们可以评估函数大量次数的情况,之后可以进行快速准确的评估。我们考虑四个插值和三种机器学习技术,并在三个玩具功能上比较他们的表现,四点标量Passarino-Veltman $ D_0 $函数,以及双环自我能量大师积分$ M $。我们发现,在低维度($ d = 3 $)中,传统的插值技术,如径向基函数表现得非常好,但在较高尺寸($ d = 5,6,9 $)中,我们发现多层的感觉(AKA神经网络)不会从维度的诅咒那么多遭受,并提供最快,最准确的预测。
translated by 谷歌翻译
深度神经网络通过解决了许多以前被视为更高人类智能的任务解锁了广泛的新应用。实现这一成功的一个发展之一是由专用硬件提供的计算能力提升,例如图形或张量处理单元。但是,这些不利用神经网络等并行性和模拟状态变量的基本特征。相反,它们模拟了依赖于二元计算的神经网络,这导致不可持续的能量消耗和相对低的速度。完全平行和模拟硬件承诺克服这些挑战,但模拟神经元噪声的影响及其传播,即积累,威胁到威胁这些方法无能为力。在这里,我们首次确定噪声在训练的完全连接层中包含噪声非线性神经元的深神经网络中的噪声传播。我们研究了添加剂和乘法以及相关和不相关的噪声,以及开发预测因对称深神经网络的任何层中的噪声水平的分析方法,或者在训练中培训的对称深神经网络或深神经网络。我们发现噪声累积通常绑定,并且添加附加网络层不会使信号与超出限制的信噪比恶化。最重要的是,当神经元激活函数具有小于单位的斜率时,可以完全抑制噪声累积。因此,我们开发了在模拟系统中实现的完全连接的深神经网络中的噪声框架,并识别允许工程师设计噪声弹性新型神经网络硬件的标准。
translated by 谷歌翻译
这是一门专门针对STEM学生开发的介绍性机器学习课程。我们的目标是为有兴趣的读者提供基础知识,以在自己的项目中使用机器学习,并将自己熟悉术语作为进一步阅读相关文献的基础。在这些讲义中,我们讨论受监督,无监督和强化学习。注释从没有神经网络的机器学习方法的说明开始,例如原理分析,T-SNE,聚类以及线性回归和线性分类器。我们继续介绍基本和先进的神经网络结构,例如密集的进料和常规神经网络,经常性的神经网络,受限的玻尔兹曼机器,(变性)自动编码器,生成的对抗性网络。讨论了潜在空间表示的解释性问题,并使用梦和对抗性攻击的例子。最后一部分致力于加强学习,我们在其中介绍了价值功能和政策学习的基本概念。
translated by 谷歌翻译
神经网络和高斯过程的优势和劣势是互补的。更好地了解他们的关系伴随着使每个方法从另一个方法中受益的承诺。在这项工作中,我们建立了神经网络的前进通行证与(深)稀疏高斯工艺模型之间的等价。我们开发的理论是基于解释激活函数作为跨域诱导功能,通过对激活函数和内核之间的相互作用进行严格分析。这导致模型可以被视为具有改善的不确定性预测或深度高斯过程的神经网络,其具有提高的预测精度。这些权利要求通过对回归和分类数据集进行实验结果来支持。
translated by 谷歌翻译
深度学习使用由其重量进行参数化的神经网络。通常通过调谐重量来直接最小化给定损耗功能来训练神经网络。在本文中,我们建议将权重重新参数转化为网络中各个节点的触发强度的目标。给定一组目标,可以计算使得发射强度最佳地满足这些目标的权重。有人认为,通过我们称之为级联解压缩的过程,使用培训的目标解决爆炸梯度的问题,并使损失功能表面更加光滑,因此导致更容易,培训更快,以及潜在的概括,神经网络。它还允许更容易地学习更深层次和经常性的网络结构。目标对重量的必要转换有额外的计算费用,这是在许多情况下可管理的。在目标空间中学习可以与现有的神经网络优化器相结合,以额外收益。实验结果表明了使用目标空间的速度,以及改进的泛化的示例,用于全连接的网络和卷积网络,以及调用和处理长时间序列的能力,并使用经常性网络进行自然语言处理。
translated by 谷歌翻译
物理信息的神经网络(PINN)是神经网络(NNS),它们作为神经网络本身的组成部分编码模型方程,例如部分微分方程(PDE)。如今,PINN是用于求解PDE,分数方程,积分分化方程和随机PDE的。这种新颖的方法已成为一个多任务学习框架,在该框架中,NN必须在减少PDE残差的同时拟合观察到的数据。本文对PINNS的文献进行了全面的综述:虽然该研究的主要目标是表征这些网络及其相关的优势和缺点。该综述还试图将出版物纳入更广泛的基于搭配的物理知识的神经网络,这些神经网络构成了香草·皮恩(Vanilla Pinn)以及许多其他变体,例如物理受限的神经网络(PCNN),各种HP-VPINN,变量HP-VPINN,VPINN,VPINN,变体。和保守的Pinn(CPINN)。该研究表明,大多数研究都集中在通过不同的激活功能,梯度优化技术,神经网络结构和损耗功能结构来定制PINN。尽管使用PINN的应用范围广泛,但通过证明其在某些情况下比有限元方法(FEM)等经典数值技术更可行的能力,但仍有可能的进步,最著名的是尚未解决的理论问题。
translated by 谷歌翻译
在本文中,提出了一种新的方法,该方法允许基于神经网络(NN)均衡器的低复杂性发展,以缓解高速相干光学传输系统中的损伤。在这项工作中,我们提供了已应用于馈电和经常性NN设计的各种深层模型压缩方法的全面描述和比较。此外,我们评估了这些策略对每个NN均衡器的性能的影响。考虑量化,重量聚类,修剪和其他用于模型压缩的尖端策略。在这项工作中,我们提出并评估贝叶斯优化辅助压缩,其中选择了压缩的超参数以同时降低复杂性并提高性能。总之,通过使用模拟和实验数据来评估每种压缩方法的复杂性及其性能之间的权衡,以完成分析。通过利用最佳压缩方法,我们表明可以设计基于NN的均衡器,该均衡器比传统的数字背部传播(DBP)均衡器具有更好的性能,并且只有一个步骤。这是通过减少使用加权聚类和修剪算法后在NN均衡器中使用的乘数数量来完成的。此外,我们证明了基于NN的均衡器也可以实现卓越的性能,同时仍然保持与完整的电子色色散补偿块相同的复杂性。我们通过强调开放问题和现有挑战以及未来的研究方向来结束分析。
translated by 谷歌翻译
Recent years have witnessed a growth in mathematics for deep learning--which seeks a deeper understanding of the concepts of deep learning with mathematics, and explores how to make it more robust--and deep learning for mathematics, where deep learning algorithms are used to solve problems in mathematics. The latter has popularised the field of scientific machine learning where deep learning is applied to problems in scientific computing. Specifically, more and more neural network architectures have been developed to solve specific classes of partial differential equations (PDEs). Such methods exploit properties that are inherent to PDEs and thus solve the PDEs better than classical feed-forward neural networks, recurrent neural networks, and convolutional neural networks. This has had a great impact in the area of mathematical modeling where parametric PDEs are widely used to model most natural and physical processes arising in science and engineering, In this work, we review such methods and extend them for parametric studies as well as for solving the related inverse problems. We equally proceed to show their relevance in some industrial applications.
translated by 谷歌翻译
在以前的工作中,我们提出了一种学习深层神经网络的几何框架,作为歧管之间的地图序列,采用奇异的黎曼几何形状。在本文中,我们介绍了该框架的应用,提出了一种建立输入点的等价等级的方法:将这种类定义为输入歧管上的点上的点,由神经网络映射到相同的输出。换句话说,我们在输入空间中构建输出歧管中的点的预测。特别是。我们在N维实际空间的神经网络映射到(N-1) - 二维实际空间的情况下,我们专注于简单,我们提出了一种算法,允许构建位于同一类等效等级的一组点。这种方法导致两个主要应用:新的合成数据的产生,它可以对分类器如何通过输入数据的小扰动来混淆一些洞察(例如,分类为包含奇瓦瓦狗的图像)。此外,对于从2D到1D实际空间的神经网络,我们还讨论了如何找到实际线路的封闭间隔的疑望。我们还提供了一些具有训练的神经网络的数值实验,以执行非线性回归任务,包括二进制分类器的情况。
translated by 谷歌翻译