回声状态网络(ESN)是一类复发性神经网络,具有大量隐藏的隐藏权重(在所谓的储层中)。典型的ESN及其变化最近由于在非线性动力学系统的建模方面取得了显着的成功而受到了极大的关注。储层随机连接到没有改变学习过程的固定权重。仅训练从储层到输出的权重。由于储层在训练过程中是固定的,因此我们可能会想知道是否完全利用了复发结构的计算能力。在本文中,我们提出了一种新的ESN类型计算模型,该模型代表傅立叶空间中的储层权重,并对这些权重进行微调,该权重应用了频域中的遗传算法。主要兴趣是,与经典ESN相比,该过程将在小得多的空间中起作用,从而提供了初始方法的降低性变换。提出的技术使我们能够利用大型复发结构的好处,以避免基于梯度的方法的训练问题。我们提供了一项详细的实验研究,该研究证明了我们使用众所周知的混沌系统和现实数据的良好表现。
translated by 谷歌翻译
For many years, Evolutionary Algorithms (EAs) have been applied to improve Neural Networks (NNs) architectures. They have been used for solving different problems, such as training the networks (adjusting the weights), designing network topology, optimizing global parameters, and selecting features. Here, we provide a systematic brief survey about applications of the EAs on the specific domain of the recurrent NNs named Reservoir Computing (RC). At the beginning of the 2000s, the RC paradigm appeared as a good option for employing recurrent NNs without dealing with the inconveniences of the training algorithms. RC models use a nonlinear dynamic system, with fixed recurrent neural network named the \textit{reservoir}, and learning process is restricted to adjusting a linear parametric function. %so the performance of learning is fast and precise. However, an RC model has several hyper-parameters, therefore EAs are helpful tools to figure out optimal RC architectures. We provide an overview of the results on the area, discuss novel advances, and we present our vision regarding the new trends and still open questions.
translated by 谷歌翻译
模糊认知地图(FCMS)被出现为可解释的签名加权数字化方法,其由代表概念之间的依赖性的节点(概念)和权重。虽然FCMS在各种时间序列预测应用中取得了相当大的成果,但设计了具有较节约的训练方法的FCM模型仍然是一个开放的挑战。因此,本文介绍了一种新颖的单变量时间序列预测技术,该技术由标记为R-HFCM的一组随机高阶FCM模型组成。提出的R-HFCM模型的新颖性与将FCM和回声状态网络(ESN)的概念合并为高效且特定的储层计算(RC)模型系列,其中应用于训练模型的最小二乘算法。从另一个角度来看,R-HFCM的结构包括输入层,储存层和输出层,其中仅输出层是可训练的,同时在训练过程中随机选择每个子储存组件的重量并保持恒定。如案例研究,该模型考虑了与巴西太阳能站以及马来西亚数据集的公共数据的太阳能预测,包括马来西亚市柔佛市电源公司的每小时电负荷和温度数据。实验还包括地图尺寸,激活功能,偏置的存在和储存器的尺寸的效果,储存器的尺寸为R-HFCM方法的准确性。所获得的结果证实了所提出的R-HFCM模型与其他方法相比表现。本研究提供了证据表明,FCM可以是在时间序列建模中实施动态储存的新方法。
translated by 谷歌翻译
在时间序列预测的各种软计算方法中,模糊认知地图(FCM)已经显示出显着的结果作为模拟和分析复杂系统动态的工具。 FCM具有与经常性神经网络的相似之处,可以被分类为神经模糊方法。换句话说,FCMS是模糊逻辑,神经网络和专家系统方面的混合,它作为模拟和研究复杂系统的动态行为的强大工具。最有趣的特征是知识解释性,动态特征和学习能力。本调查纸的目标主要是在文献中提出的最相关和最近的基于FCCM的时间序列预测模型概述。此外,本文认为介绍FCM模型和学习方法的基础。此外,该调查提供了一些旨在提高FCM的能力的一些想法,以便在处理非稳定性数据和可扩展性问题等现实实验中涵盖一些挑战。此外,具有快速学习算法的FCMS是该领域的主要问题之一。
translated by 谷歌翻译
储层计算机(RCS)是所有神经网络训练最快的计算机之一,尤其是当它们与其他经常性神经网络进行比较时。 RC具有此优势,同时仍能很好地处理顺序数据。但是,由于该模型对其超参数(HPS)的敏感性,RC的采用率滞后于其他神经网络模型。文献中缺少一个自动调谐这些参数的现代统一软件包。手动调整这些数字非常困难,传统网格搜索方法的成本呈指数增长,随着所考虑的HP数量,劝阻RC的使用并限制了可以设计的RC模型的复杂性。我们通过引入RCTORCH来解决这些问题,Rctorch是一种基于Pytorch的RC神经网络软件包,具有自动HP调整。在本文中,我们通过使用它来预测不同力的驱动摆的复杂动力学来证明rctorch的实用性。这项工作包括编码示例。示例Python Jupyter笔记本可以在我们的GitHub存储库https://github.com/blindedjoy/rctorch上找到,可以在https://rctorch.readthedocs.io/上找到文档。
translated by 谷歌翻译
Echo State Networks (ESN) are a type of Recurrent Neural Networks that yields promising results in representing time series and nonlinear dynamic systems. Although they are equipped with a very efficient training procedure, Reservoir Computing strategies, such as the ESN, require the use of high order networks, i.e. large number of layers, resulting in number of states that is magnitudes higher than the number of model inputs and outputs. This not only makes the computation of a time step more costly, but also may pose robustness issues when applying ESNs to problems such as Model Predictive Control (MPC) and other optimal control problems. One such way to circumvent this is through Model Order Reduction strategies such as the Proper Orthogonal Decomposition (POD) and its variants (POD-DEIM), whereby we find an equivalent lower order representation to an already trained high dimension ESN. The objective of this work is to investigate and analyze the performance of POD methods in Echo State Networks, evaluating their effectiveness. To this end, we evaluate the Memory Capacity (MC) of the POD-reduced network in comparison to the original (full order) ENS. We also perform experiments on two different numerical case studies: a NARMA10 difference equation and an oil platform containing two wells and one riser. The results show that there is little loss of performance comparing the original ESN to a POD-reduced counterpart, and also that the performance of a POD-reduced ESN tend to be superior to a normal ESN of the same size. Also we attain speedups of around $80\%$ in comparison to the original ESN.
translated by 谷歌翻译
回声状态网络代表一种复发性神经网络,具有大型随机生成的储层和通过线性回归训练的少量读数连接。水库最常见的拓扑结构是一个完全连接的网络,该网络最多可见数千个神经元。多年来,研究人员引入了各种替代储层拓扑,例如圆网或线性连接路径。在比较不同拓扑或其他体系结构变化的性能时,必须分别对每个拓扑的超参数调整超参数,因为它们的性质可能会显着差异。通常,通过从稀疏的预定义组合网格中选择最佳性能的参数集,通常是手动进行的。不幸的是,这种方法可能导致表现不佳的配置,尤其是对于敏感拓扑。我们提出了基于协方差矩阵适应进化策略(CMA-ES)的替代方法调整。使用这种方法,我们通过数量级的顺序提高了多个拓扑比较结果,这表明单独拓扑的作用不如正确调整的超级参数那样重要。
translated by 谷歌翻译
Machine learning frameworks such as Genetic Programming (GP) and Reinforcement Learning (RL) are gaining popularity in flow control. This work presents a comparative analysis of the two, bench-marking some of their most representative algorithms against global optimization techniques such as Bayesian Optimization (BO) and Lipschitz global optimization (LIPO). First, we review the general framework of the model-free control problem, bringing together all methods as black-box optimization problems. Then, we test the control algorithms on three test cases. These are (1) the stabilization of a nonlinear dynamical system featuring frequency cross-talk, (2) the wave cancellation from a Burgers' flow and (3) the drag reduction in a cylinder wake flow. We present a comprehensive comparison to illustrate their differences in exploration versus exploitation and their balance between `model capacity' in the control law definition versus `required complexity'. We believe that such a comparison paves the way toward the hybridization of the various methods, and we offer some perspective on their future development in the literature on flow control problems.
translated by 谷歌翻译
在神经结构的搜索算法设计(NAS)已经收到了很多关注,旨在提高性能和降低计算成本。尽管巨大的进步作出,很少有作者提出裁缝初始化技术NAS。然而,文献表明,一个好的初始一整套解决方案有助于找到最优解。因此,在这项研究中,我们提出了一个数据驱动的技术来初始化一个人口为基础的NAS算法。特别是,我们提出了一个两步法。首先,我们进行搜索空间的校准聚类分析,和第二,我们提取的重心,并利用它们来初始化NAS算法。我们的基准我们提出的针对使用三个人口为基础的算法,即遗传算法,进化算法,以及老化发展随机和拉丁方抽样方法初始化,上CIFAR-10。更具体地说,我们使用NAS-台-101利用NAS基准的可用性。结果表明,相比于随机和拉丁方抽样,所提出的初始化技术能够在各种搜索场景(不同的培训预算)达到显著的长期改善两个搜索基线,有时。此外,我们分析得到的溶液的分布,发现由数据驱动的初始化技术提供的人口使检索高健身和类似配置的局部最优(最大值)。
translated by 谷歌翻译
物理信息的神经网络(PINN)是神经网络(NNS),它们作为神经网络本身的组成部分编码模型方程,例如部分微分方程(PDE)。如今,PINN是用于求解PDE,分数方程,积分分化方程和随机PDE的。这种新颖的方法已成为一个多任务学习框架,在该框架中,NN必须在减少PDE残差的同时拟合观察到的数据。本文对PINNS的文献进行了全面的综述:虽然该研究的主要目标是表征这些网络及其相关的优势和缺点。该综述还试图将出版物纳入更广泛的基于搭配的物理知识的神经网络,这些神经网络构成了香草·皮恩(Vanilla Pinn)以及许多其他变体,例如物理受限的神经网络(PCNN),各种HP-VPINN,变量HP-VPINN,VPINN,VPINN,变体。和保守的Pinn(CPINN)。该研究表明,大多数研究都集中在通过不同的激活功能,梯度优化技术,神经网络结构和损耗功能结构来定制PINN。尽管使用PINN的应用范围广泛,但通过证明其在某些情况下比有限元方法(FEM)等经典数值技术更可行的能力,但仍有可能的进步,最著名的是尚未解决的理论问题。
translated by 谷歌翻译
Recent years have witnessed a growth in mathematics for deep learning--which seeks a deeper understanding of the concepts of deep learning with mathematics, and explores how to make it more robust--and deep learning for mathematics, where deep learning algorithms are used to solve problems in mathematics. The latter has popularised the field of scientific machine learning where deep learning is applied to problems in scientific computing. Specifically, more and more neural network architectures have been developed to solve specific classes of partial differential equations (PDEs). Such methods exploit properties that are inherent to PDEs and thus solve the PDEs better than classical feed-forward neural networks, recurrent neural networks, and convolutional neural networks. This has had a great impact in the area of mathematical modeling where parametric PDEs are widely used to model most natural and physical processes arising in science and engineering, In this work, we review such methods and extend them for parametric studies as well as for solving the related inverse problems. We equally proceed to show their relevance in some industrial applications.
translated by 谷歌翻译
Machine Learning algorithms have been extensively researched throughout the last decade, leading to unprecedented advances in a broad range of applications, such as image classification and reconstruction, object recognition, and text categorization. Nonetheless, most Machine Learning algorithms are trained via derivative-based optimizers, such as the Stochastic Gradient Descent, leading to possible local optimum entrapments and inhibiting them from achieving proper performances. A bio-inspired alternative to traditional optimization techniques, denoted as meta-heuristic, has received significant attention due to its simplicity and ability to avoid local optimums imprisonment. In this work, we propose to use meta-heuristic techniques to fine-tune pre-trained weights, exploring additional regions of the search space, and improving their effectiveness. The experimental evaluation comprises two classification tasks (image and text) and is assessed under four literature datasets. Experimental results show nature-inspired algorithms' capacity in exploring the neighborhood of pre-trained weights, achieving superior results than their counterpart pre-trained architectures. Additionally, a thorough analysis of distinct architectures, such as Multi-Layer Perceptron and Recurrent Neural Networks, attempts to visualize and provide more precise insights into the most critical weights to be fine-tuned in the learning process.
translated by 谷歌翻译
预测基金绩效对投资者和基金经理都是有益的,但这是一项艰巨的任务。在本文中,我们测试了深度学习模型是否比传统统计技术更准确地预测基金绩效。基金绩效通常通过Sharpe比率进行评估,该比例代表了风险调整的绩效,以确保基金之间有意义的可比性。我们根据每月收益率数据序列数据计算了年度夏普比率,该数据的时间序列数据为600多个投资于美国上市大型股票的开放式共同基金投资。我们发现,经过现代贝叶斯优化训练的长期短期记忆(LSTM)和封闭式复发单元(GRUS)深度学习方法比传统统计量相比,预测基金的Sharpe比率更高。结合了LSTM和GRU的预测的合奏方法,可以实现所有模型的最佳性能。有证据表明,深度学习和结合能提供有希望的解决方案,以应对基金绩效预测的挑战。
translated by 谷歌翻译
4月20日至22日,在马德里(西班牙)举行的EVO* 2022会议上提交了末期摘要。这些论文介绍了正在进行的研究和初步结果,这些结果研究了对不同问题的不同方法(主要是进化计算)的应用,其中大多数是现实世界中的方法。
translated by 谷歌翻译
近年来,行业和学术界的深度学习(DL)迅速发展。但是,找到DL模型的最佳超参数通常需要高计算成本和人类专业知识。为了减轻上述问题,进化计算(EC)作为一种强大的启发式搜索方法显示出在DL模型的自动设计中,所谓的进化深度学习(EDL)具有重要优势。本文旨在从自动化机器学习(AUTOML)的角度分析EDL。具体来说,我们首先从机器学习和EC阐明EDL,并将EDL视为优化问题。根据DL管道的说法,我们系统地介绍了EDL方法,从功能工程,模型生成到具有新的分类法的模型部署(即,什么以及如何发展/优化),专注于解决方案表示和搜索范式的讨论通过EC处理优化问题。最后,提出了关键的应用程序,开放问题以及可能有希望的未来研究线。这项调查回顾了EDL的最新发展,并为EDL的开发提供了有见地的指南。
translated by 谷歌翻译
经常性神经网络(RNN)经常用于建模脑功能和结构的方面。在这项工作中,我们培训了小型完全连接的RNN,以具有时变刺激的时间和流量控制任务。我们的结果表明,不同的RNN可以通过对不同的底层动态进行不同的RNN来解决相同的任务,并且优雅地降低的性能随着网络尺寸而降低,间隔持续时间增加,或者连接损坏。我们的结果对于量化通常用作黑匣子的模型的不同方面是有用的,并且需要预先理解以建模脑皮质区域的生物反应。
translated by 谷歌翻译
生物医学决策涉及来自不同传感器或来自不同信道的多个信号处理。在这两种情况下,信息融合发挥着重要作用。在脑电图循环交替模式中,在这项工作中进行了深度学习的脑电图通道的特征级融合。通过两个优化算法,即遗传算法和粒子群优化优化了频道选择,融合和分类程序。通过融合来自多个脑电图信道的信息来评估开发的方法,用于夜间胸癫痫和没有任何神经疾病的患者的患者,与其他艺术艺术的工作相比,这在显着更具挑战性。结果表明,两种优化算法都选择了一种具有类似特征级融合的可比结构,包括三个脑电图通道,这与帽协议一致,以确保多个通道的唤起帽检测。此外,两种优化模型在接收器的工作特性曲线下达到了0.82的一个区域,平均精度为77%至79%,这是在专业协议的上部范围内的结果。尽管数据集是困难的数据集,所提出的方法仍处于最佳状态的上层,并且具有困难的数据集,并且具有在不需要任何手动过程的情况下提供全自动分析的优点。最终,模型显示出抗噪声和有弹性的多声道损耗。
translated by 谷歌翻译
要使用深神经网络预测罕见的极端事件,一个人遇到所谓的小数据问题,因为即使是长期观测通常常见的事件常见。在这里,我们研究了一种模型辅助框架,其中训练数据是从数值模拟获得的,而不是观察,具有来自极端事件的适当样本。但是,为了确保培训的网络在实践中适用,无法在完整的仿真数据上执行培训;相反,我们只使用可以在实践中测量的可观察量的小子集。我们调查这一模型辅助框架在三种不同动力系统(Rossler Larguger Or,Fitzhugh - Nagumo Model和湍流流体流量)和三种不同的深神经网络架构(前馈,长短期内存和储层计算)上的可行性)。在每种情况下,我们研究了预测准确性,稳健性对噪声,重复训练的再现性,以及对输入数据类型的敏感性。特别是,我们发现长期的短期内存网络是最强大的噪声,并产生相对准确的预测,同时需要最小的高考的微调。
translated by 谷歌翻译
激活功能(AFS)在神经网络的性能中起关键作用。整流线性单元(RELU)当前是最常用的AF。已经提出了几个替代者,但事实证明,改进措施不一致。一些AFS在特定任务中表现出更好的性能,但是很难先验如何选择合适的任务。研究标准完全连接的神经网络(FCN)和卷积神经网络(CNN),我们提出了一种新颖的,三个人群,共同进化算法来进化AFS,并将其与其他四种方法进行比较,即进化和非进化。在四个数据集(MNIST,FashionMnist,KMNIST和USPS)上进行了测试,共同进化被证明是找到良好的AFS和AF体系结构的性能算法。
translated by 谷歌翻译
近年来,机器学习的巨大进步已经开始对许多科学和技术的许多领域产生重大影响。在本文的文章中,我们探讨了量子技术如何从这项革命中受益。我们在说明性示例中展示了过去几年的科学家如何开始使用机器学习和更广泛的人工智能方法来分析量子测量,估计量子设备的参数,发现新的量子实验设置,协议和反馈策略,以及反馈策略,以及通常改善量子计算,量子通信和量子模拟的各个方面。我们重点介绍了公开挑战和未来的可能性,并在未来十年的一些投机愿景下得出结论。
translated by 谷歌翻译