我们将机器学习应用于寻找数值卡拉比市度量的问题。我们在使用Donaldson算法计算近似Ricci-FLAN度量的学习近似Ricci-Flat度量,以更加准确的“最佳”度量标准的“最佳”的“最佳”指标来扩展。我们表明,机器学习能够预测只有一个小型训练数据样本的Calabi-yau度量的K \“Ahler潜力。
translated by 谷歌翻译
我们提供了一个用于计算字符串压缩空间的指标的新机器学习库。我们将Monte-Carlo采样积分的性能进行基准,针对先前的数值近似,发现我们的神经网络更加采样和计算效率。我们是第一个提供计算Compact空间的任意,用户指定的形状和大小参数的这些度量的可能性,并观察我们正在训练和消失Ricci曲率的局部微分方程的优化之间的线性关系。
translated by 谷歌翻译
这项调查的目的是介绍对深神经网络的近似特性的解释性回顾。具体而言,我们旨在了解深神经网络如何以及为什么要优于其他经典线性和非线性近似方法。这项调查包括三章。在第1章中,我们回顾了深层网络及其组成非线性结构的关键思想和概念。我们通过在解决回归和分类问题时将其作为优化问题来形式化神经网络问题。我们简要讨论用于解决优化问题的随机梯度下降算法以及用于解决优化问题的后传播公式,并解决了与神经网络性能相关的一些问题,包括选择激活功能,成本功能,过度适应问题和正则化。在第2章中,我们将重点转移到神经网络的近似理论上。我们首先介绍多项式近似中的密度概念,尤其是研究实现连续函数的Stone-WeierStrass定理。然后,在线性近似的框架内,我们回顾了馈电网络的密度和收敛速率的一些经典结果,然后在近似Sobolev函数中进行有关深网络复杂性的最新发展。在第3章中,利用非线性近似理论,我们进一步详细介绍了深度和近似网络与其他经典非线性近似方法相比的近似优势。
translated by 谷歌翻译
我们使用深神经网络来机器学习各种尺寸的结不变之间的相关性。感兴趣的三维不变性是琼斯多项式$ j(q)$,四维不变性是khovanov多项式$ \ text {kh}(q,t)$,平滑的切片属$ g $,以及拉斯穆森的$ s $-invariant。我们发现双层前馈神经网络可以从$ \ text {kh}(q,-q ^ {-4})$大于99美元的$准确性。通过现在的DISPROVER骑士移动猜想,在结理论中存在对这种性能的理论解释,这些表现在我们的数据集中的所有结遵守。更令人惊讶的是,我们发现类似于$ \ text {kh}(q,-q ^ {-2})$的类似表现,这表明Khovanov与李同源理论之间的新关系。网络从$ \ text {kh}(q,t)$以同样高的准确度预测到$ g $,我们讨论了机器学习$ s $的程度,而不是$ g $,因为有一般不平等$ | S | \ Leq 2G $。 Jones多项式作为三维不变性,并不明显与$ S $或$ G $相关,但网络从$ j(q)$之前预测,网络达到大于95美元的$准确性。此外,通过在统一的根部评估$ j(q)$来实现类似的准确度。这表明与SU(2)$ CHERN-SIMONS理论的关系,我们审查了Khovanov同源性的仪表理论建设,这可能与解释网络的性能相关。
translated by 谷歌翻译
我们提出了一种简单的方法来通过人工神经网络的回归来识别数据集中的连续谎言对称。我们的提案利用了在输入变量上的无限对称转换下输出变量的$ \ Mathcal {O}(\ epsilon ^ 2)$缩放。随着后期对称转换的影响,该方法不依赖于数据集的完整表示空间或排放的采样,并且最小化了错误识别的可能性。我们在SU(3) - 对称(非)线性$ \ SIGMA $模型中展示了我们的方法。
translated by 谷歌翻译
通用的完整交叉点Calabi-yau歧管(GCICY)是最近建立的卡拉比(Calabi-Yau)歧管的新结构。但是,使用标准代数方法的新GCICY产生非常费力。由于这种复杂性,GCICYS及其分类的数量仍然未知。在本文中,我们尝试使用神经网络在这个方向上取得一些进展。结果表明,我们训练有素的型号可以对文献中现有类型的$(1,1)$(1,1)$(1,1)$(1,1)$(2,1)$ GCICYS具有很高的精度。此外,他们可以在预测新的GCICY方面获得$ 97 \%$的精度,这与用于培训和测试的产品不同。这表明机器学习可能是分类和生成新GCICE的有效方法。
translated by 谷歌翻译
使用完全连接的前馈神经网络,我们研究了一类Calabi - yau歧管的拓扑不变,该歧管构建为与来自Kreuzer - Skarke数据库的反复多粒子相关的扭曲品种中的过度迹象。特别是,我们发现可以在从多特偶联及其双重中提取的有限数据方面可以了解的欧拉数的简单表达式。
translated by 谷歌翻译
These notes were compiled as lecture notes for a course developed and taught at the University of the Southern California. They should be accessible to a typical engineering graduate student with a strong background in Applied Mathematics. The main objective of these notes is to introduce a student who is familiar with concepts in linear algebra and partial differential equations to select topics in deep learning. These lecture notes exploit the strong connections between deep learning algorithms and the more conventional techniques of computational physics to achieve two goals. First, they use concepts from computational physics to develop an understanding of deep learning algorithms. Not surprisingly, many concepts in deep learning can be connected to similar concepts in computational physics, and one can utilize this connection to better understand these algorithms. Second, several novel deep learning algorithms can be used to solve challenging problems in computational physics. Thus, they offer someone who is interested in modeling a physical phenomena with a complementary set of tools.
translated by 谷歌翻译
多项式方程的参数化系统在科学和工程中的许多应用中都出现了真实的解决方案,例如,描述了动态系统的平衡,链接满足设计约束,以及计算机视觉中的场景重建。由于不同的参数值可以具有不同数量的实际解决方案,因此参数空间被分解为边界形成真实判别基因座的区域。本文认为将真实的判别基因座定位为机器学习中的监督分类问题,该目标是确定参数空间上的分类边界,其中类是实际解决方案的数量。对于多维参数空间,本文提出了一种新型的采样方法,该方法仔细采样了参数空间。在每个示例点,同质延续用于获取相应多项式系统的真实溶液数量。包括最近的邻居和深度学习在内的机器学习技术可有效地近似实际的判别基因座。学习了真实判别基因座的一种应用是开发一种真实的同义方法,该方法仅跟踪真正的解决方案路径,与传统方法不同,该方法跟踪所有〜复杂〜解决方案路径。示例表明,所提出的方法可以有效地近似复杂的解决方案边界,例如由库拉莫托模型的平衡引起的。
translated by 谷歌翻译
在本作的工作中,提出了两种基于机器学习的有限变形的本质型模型。使用输入凸神经网络,该模型是过度塑化的,各向异性的并且实现了多种凸起条件,这意味着椭圆形,因此确保了材料稳定性。第一本构模型基于一组多晶硅,各向异性和目标不变。第二种方法在变形梯度,其辅助因子和决定簇方面配制,使用组对称性来满足材料对称条件,以及数据增强以满足客观性大致。数据集的扩展为数据增强方法是基于机械考虑,不需要额外的实验或模拟数据。该模型具有高度具有挑战性的立方晶格超材料的模拟数据,包括有限变形和格子稳定性。基于在实验研究中通常应用的变形,使用适量的校准数据。虽然基于不变的模型显示了几种变形模式的缺点,但是仅基于变形梯度的模型能够非常好地再现和预测有效的材料行为,并且表现出优异的泛化能力。此外,使用分析多晶硅电位产生横向各向同性数据校准模型。在这种情况下,两种模型都表现出优异的结果,展示了PolyConvex神经网络本构模型对其他对称组的直接适用性。
translated by 谷歌翻译
Helmholtz方程已被用于在谐波负载下建模声压场。通过求解Helmholtz方程计算谐波声压场,如果想要研究许多不同的几何形状,可以迅速变得不可行,以便频率范围。我们提出了一种机器学习方法,即前馈密集神经网络,用于在频率范围内计算平均声压。通过数值计算平均声压的响应,通过对压力的特征模分分解来产生数据。我们分析近似的准确性,并确定需要多少训练数据,以便在平均压力响应的预测中达到一定的准确性。
translated by 谷歌翻译
在这项工作中,我们分析了不同程度的不同精度和分段多项式测试函数如何影响变异物理学知情神经网络(VPINN)的收敛速率,同时解决椭圆边界边界值问题,如何影响变异物理学知情神经网络(VPINN)的收敛速率。使用依靠INF-SUP条件的Petrov-Galerkin框架,我们在精确解决方案和合适的计算神经网络的合适的高阶分段插值之间得出了一个先验误差估计。数值实验证实了理论预测并突出了INF-SUP条件的重要性。我们的结果表明,以某种方式违反直觉,对于平滑解决方案,实现高衰减率的最佳策略在选择最低多项式程度的测试功能方面,同时使用适当高精度的正交公式。
translated by 谷歌翻译
神经网络的经典发展主要集中在有限维欧基德空间或有限组之间的学习映射。我们提出了神经网络的概括,以学习映射无限尺寸函数空间之间的运算符。我们通过一类线性积分运算符和非线性激活函数的组成制定运营商的近似,使得组合的操作员可以近似复杂的非线性运算符。我们证明了我们建筑的普遍近似定理。此外,我们介绍了四类运算符参数化:基于图形的运算符,低秩运算符,基于多极图形的运算符和傅里叶运算符,并描述了每个用于用每个计算的高效算法。所提出的神经运营商是决议不变的:它们在底层函数空间的不同离散化之间共享相同的网络参数,并且可以用于零击超分辨率。在数值上,与现有的基于机器学习的方法,达西流程和Navier-Stokes方程相比,所提出的模型显示出卓越的性能,而与传统的PDE求解器相比,与现有的基于机器学习的方法有关的基于机器学习的方法。
translated by 谷歌翻译
这是一门专门针对STEM学生开发的介绍性机器学习课程。我们的目标是为有兴趣的读者提供基础知识,以在自己的项目中使用机器学习,并将自己熟悉术语作为进一步阅读相关文献的基础。在这些讲义中,我们讨论受监督,无监督和强化学习。注释从没有神经网络的机器学习方法的说明开始,例如原理分析,T-SNE,聚类以及线性回归和线性分类器。我们继续介绍基本和先进的神经网络结构,例如密集的进料和常规神经网络,经常性的神经网络,受限的玻尔兹曼机器,(变性)自动编码器,生成的对抗性网络。讨论了潜在空间表示的解释性问题,并使用梦和对抗性攻击的例子。最后一部分致力于加强学习,我们在其中介绍了价值功能和政策学习的基本概念。
translated by 谷歌翻译
Recent years have witnessed a growth in mathematics for deep learning--which seeks a deeper understanding of the concepts of deep learning with mathematics, and explores how to make it more robust--and deep learning for mathematics, where deep learning algorithms are used to solve problems in mathematics. The latter has popularised the field of scientific machine learning where deep learning is applied to problems in scientific computing. Specifically, more and more neural network architectures have been developed to solve specific classes of partial differential equations (PDEs). Such methods exploit properties that are inherent to PDEs and thus solve the PDEs better than classical feed-forward neural networks, recurrent neural networks, and convolutional neural networks. This has had a great impact in the area of mathematical modeling where parametric PDEs are widely used to model most natural and physical processes arising in science and engineering, In this work, we review such methods and extend them for parametric studies as well as for solving the related inverse problems. We equally proceed to show their relevance in some industrial applications.
translated by 谷歌翻译
我们越早努力计算Calabi-yau歧管的切线空间协调尺寸的努力使用深度学习。在本文中,我们考虑所有Calabi-yau四折的数据集,构建为投影空间的产品中的完整交叉点。采用最先进的计算机视觉架构启发的神经网络,我们改进了早期的基准,并证明所有四个非琐碎的霍奇格数可以使用多任务架构同时学习。30%(80%)培训率,我们达到$ H ^ {(1,1)} $的准确性为100%,以H ^ {(2,1)} $(两者为100%),81%(96%)为$ h ^ {(3,1)} $,49%(83%)为$ h ^ {(2,2)} $。假设欧拉数是已知的,因为它易于计算,并且考虑到从指数计算引起的线性约束,我们得到100%的总精度。
translated by 谷歌翻译
Deep neural networks can approximate functions on different types of data, from images to graphs, with varied underlying structure. This underlying structure can be viewed as the geometry of the data manifold. By extending recent advances in the theoretical understanding of neural networks, we study how a randomly initialized neural network with piece-wise linear activation splits the data manifold into regions where the neural network behaves as a linear function. We derive bounds on the density of boundary of linear regions and the distance to these boundaries on the data manifold. This leads to insights into the expressivity of randomly initialized deep neural networks on non-Euclidean data sets. We empirically corroborate our theoretical results using a toy supervised learning problem. Our experiments demonstrate that number of linear regions varies across manifolds and the results hold with changing neural network architectures. We further demonstrate how the complexity of linear regions is different on the low dimensional manifold of images as compared to the Euclidean space, using the MetFaces dataset.
translated by 谷歌翻译
在2015年和2019年之间,地平线的成员2020年资助的创新培训网络名为“Amva4newphysics”,研究了高能量物理问题的先进多变量分析方法和统计学习工具的定制和应用,并开发了完全新的。其中许多方法已成功地用于提高Cern大型Hadron撞机的地图集和CMS实验所执行的数据分析的敏感性;其他几个人,仍然在测试阶段,承诺进一步提高基本物理参数测量的精确度以及新现象的搜索范围。在本文中,在研究和开发的那些中,最相关的新工具以及对其性能的评估。
translated by 谷歌翻译
罕见事件计算研究中的一个中心对象是委员会函数。尽管计算成本高昂,但委员会功能编码涉及罕见事件的过程的完整机械信息,包括反应率和过渡状态合奏。在过渡路径理论(TPT)的框架下,最近的工作[1]提出了一种算法,其中反馈回路融合了一个神经网络,该神经网络将委员会功能建模为重要性采样,主要是伞形采样,该摘要收集了自适应训练所需的数据。在这项工作中,我们显示需要进行其他修改以提高算法的准确性。第一个修改增加了监督学习的要素,这使神经网络通过拟合从短分子动力学轨迹获得的委员会值的样本均值估计来改善其预测。第二个修改用有限的温度字符串(FTS)方法代替了基于委员会的伞采样,该方法可以在过渡途径的区域中进行均匀抽样。我们测试了具有非凸电势能的低维系统的修改,可以通过分析或有限元方法找到参考解决方案,并显示如何将监督学习和FTS方法组合在一起,从而准确地计算了委员会功能和反应速率。我们还为使用FTS方法的算法提供了错误分析,使用少数样品在训练过程中可以准确估算反应速率。然后将这些方法应用于未知参考溶液的分子系统,其中仍然可以获得委员会功能和反应速率的准确计算。
translated by 谷歌翻译
机器学习,特别是深度学习方法在许多模式识别和数据处理问题,游戏玩法中都优于人类的能力,现在在科学发现中也起着越来越重要的作用。机器学习在分子科学中的关键应用是通过使用密度函数理论,耦合群或其他量子化学方法获得的电子schr \“ odinger方程的Ab-Initio溶液中的势能表面或力场。我们回顾了一种最新和互补的方法:使用机器学习来辅助从第一原理中直接解决量子化学问题。具体来说,我们专注于使用神经网络ANSATZ功能的量子蒙特卡洛(QMC)方法,以解决电子SCHR \ “ Odinger方程在第一和第二量化中,计算场和激发态,并概括多个核构型。与现有的量子化学方法相比,这些新的深QMC方法具有以相对适度的计算成本生成高度准确的Schr \“ Odinger方程的溶液。
translated by 谷歌翻译