在本文中,我们评估了使用系统识别方法来构建异构SoC平台的热预测模型,该模型可用于快速预测不同配置的温度而不需要硬件。具体而言,我们专注于建模方法,其可以基于时钟频率和每个核心的利用百分比来预测温度。我们研究了三种方法关于它们的预测精度:使用多项式回归的线性状态空间识别方法,NARX神经网络方法和在FIR模型结构中配置的反复性神经网络方法。我们评估ODTOID-XU4板上的方法,其具有Exynos 5422 SoC。结果表明,基于多项式回归器的模型在用1小时和6小时的数据训练时显着优于其他两个模型。
translated by 谷歌翻译
Data Centers are huge power consumers, both because of the energy required for computation and the cooling needed to keep servers below thermal redlining. The most common technique to minimize cooling costs is increasing data room temperature. However, to avoid reliability issues, and to enhance energy efficiency, there is a need to predict the temperature attained by servers under variable cooling setups. Due to the complex thermal dynamics of data rooms, accurate runtime data center temperature prediction has remained as an important challenge. By using Gramatical Evolution techniques, this paper presents a methodology for the generation of temperature models for data centers and the runtime prediction of CPU and inlet temperature under variable cooling setups. As opposed to time costly Computational Fluid Dynamics techniques, our models do not need specific knowledge about the problem, can be used in arbitrary data centers, re-trained if conditions change and have negligible overhead during runtime prediction. Our models have been trained and tested by using traces from real Data Center scenarios. Our results show how we can fully predict the temperature of the servers in a data rooms, with prediction errors below 2 C and 0.5 C in CPU and server inlet temperature respectively.
translated by 谷歌翻译
预测基金绩效对投资者和基金经理都是有益的,但这是一项艰巨的任务。在本文中,我们测试了深度学习模型是否比传统统计技术更准确地预测基金绩效。基金绩效通常通过Sharpe比率进行评估,该比例代表了风险调整的绩效,以确保基金之间有意义的可比性。我们根据每月收益率数据序列数据计算了年度夏普比率,该数据的时间序列数据为600多个投资于美国上市大型股票的开放式共同基金投资。我们发现,经过现代贝叶斯优化训练的长期短期记忆(LSTM)和封闭式复发单元(GRUS)深度学习方法比传统统计量相比,预测基金的Sharpe比率更高。结合了LSTM和GRU的预测的合奏方法,可以实现所有模型的最佳性能。有证据表明,深度学习和结合能提供有希望的解决方案,以应对基金绩效预测的挑战。
translated by 谷歌翻译
本文介绍了一种用于开发面向控制的建筑物的散热模型的数据驱动建模方法。这些型号是通过降低能耗成本的目标而开发的,同时控制建筑物的室内温度,在所需的舒适度限制内。结合白/灰盒物理模型的可解释性和神经网络的表现力,我们提出了一种物理知识的神经网络方法,用于这种建模任务。除了测量的数据和构建参数之外,我们将通过管理这些建筑物的热行为的底层物理编码神经网络。因此,实现了由物理学引导的模型,有助于建模室温和功耗的时间演化以及隐藏状态,即建筑物热质量的温度。这项工作的主要研究贡献是:(1)我们提出了两种物理学的变种信息,为机构的控制定向热建模任务提供了通知的神经网络架构,(2)我们展示这些架构是数据效率的,需要更少培训数据与传统的非物理知识的神经网络相比,(3)我们表明这些架构比传统的神经网络实现更准确的预测,用于更长的预测视野。我们使用模拟和实际字数据测试所提出的架构的预测性能,以演示(2)和(3),并显示所提出的物理知识的神经网络架构可以用于该控制导向的建模问题。
translated by 谷歌翻译
在本文中,我们提出了一种新的端到端方法,以优化能量性能以及大型建筑物的舒适性和空气质量,而无需任何装修工作。我们介绍了基于经常性神经网络的元模型,并训练了使用从模拟程序采样的数据库预测一般大类建筑物的行为。然后将该元模型部署在不同的框架中,并且使用两个真实建筑的特定数据校准其参数。通过使用CMA-ES算法比较从传感器获得的真实数据的比较来估计参数,通过使用CMA-ES算法,衍生免费优化过程。然后,使用NSGA-II多目标优化过程保持目标热舒适度和空气质量的同时优化能量消耗。数值实验说明了该元模型如何确保能效显着增益,高达近10%,同时计算比数值模型更具吸引力,并且足够灵活地适应若干类型的建筑物。
translated by 谷歌翻译
物理信息的神经网络(PINN)是神经网络(NNS),它们作为神经网络本身的组成部分编码模型方程,例如部分微分方程(PDE)。如今,PINN是用于求解PDE,分数方程,积分分化方程和随机PDE的。这种新颖的方法已成为一个多任务学习框架,在该框架中,NN必须在减少PDE残差的同时拟合观察到的数据。本文对PINNS的文献进行了全面的综述:虽然该研究的主要目标是表征这些网络及其相关的优势和缺点。该综述还试图将出版物纳入更广泛的基于搭配的物理知识的神经网络,这些神经网络构成了香草·皮恩(Vanilla Pinn)以及许多其他变体,例如物理受限的神经网络(PCNN),各种HP-VPINN,变量HP-VPINN,VPINN,VPINN,变体。和保守的Pinn(CPINN)。该研究表明,大多数研究都集中在通过不同的激活功能,梯度优化技术,神经网络结构和损耗功能结构来定制PINN。尽管使用PINN的应用范围广泛,但通过证明其在某些情况下比有限元方法(FEM)等经典数值技术更可行的能力,但仍有可能的进步,最著名的是尚未解决的理论问题。
translated by 谷歌翻译
研究了自闭症数据集,以确定自闭症和健康组之间的差异。为此,分析了这两组的静止状态功能磁共振成像(RS-FMRI)数据,并创建了大脑区域之间的连接网络。开发了几个分类框架,以区分组之间的连接模式。比较了统计推断和精度的最佳模型,并分析了精度和模型解释性之间的权衡。最后,据报道,分类精度措施证明了我们框架的性能。我们的最佳模型可以以71%的精度将自闭症和健康的患者分类为多站点I数据。
translated by 谷歌翻译
由于其高能量强度,建筑物在当前全球能源转型中发挥着重要作用。建筑模型是普遍无处不在的,因为在建筑物的每个阶段都需要它们,即设计,改装和控制操作。基于物理方程式的古典白盒式模型必然遵循物理规律,但其底层结构的具体设计可能会阻碍他们的表现力,从而阻碍他们的准确性。另一方面,黑匣子型号更适合捕获非线性建筑动态,因此通常可以实现更好的准确性,但它们需要大量的数据,并且可能不会遵循物理规律,这是神经网络特别常见的问题(NN)模型。为了抵消这种已知的概括问题,最近介绍了物理知识的NNS,研究人员在NNS的结构中介绍了以底层底层物理法律接地,并避免经典的NN概括问题。在这项工作中,我们介绍了一种新的物理信息的NN架构,被称为身体一致的NN(PCNN),其仅需要过去的运行数据并且没有工程开销,包括在并联运行到经典NN的线性模块中的先前知识。我们正式证明,这些网络是物理上一致的 - 通过设计甚至在看不见的数据 - 关于不同的控制输入和邻近区域的温度。我们在案例研究中展示了他们的表现,其中PCNN比3美元的古典物理型电阻电容模型更好地获得高达50美元的准确性。此外,尽管结构受到约束的结构,但PCNNS在验证数据上对古典NNS对古典NNS进行了类似的性能,使训练数据较少,并保留高表达性以解决泛化问题。
translated by 谷歌翻译
近年来,由于深度学习解决复杂的“物理”问题,近年来,基于计算的热管理方法的兴起已经取得了巨大的关注,否则难以使用常规技术难以接近。电子系统需要热管理,以防止它们过热和燃烧,提高其效率和寿命。长期以来,已经采用了数值技术来帮助热管理电子产品。但是,他们带来了一些限制。为了提高传统数值方法的有效性和解决传统方法所面临的缺点,研究人员在热管理过程的各个阶段使用人工智能。本研究详细讨论了“电子”热管理领域深度学习的当前用途。
translated by 谷歌翻译
温度监测对于电动机确定是否应执行设备保护措施至关重要。但是,永久磁铁同步电动机(PMSM)的内部结构的复杂性使内部组件的直接温度测量变得困难。这项工作务实地开发了三种深度学习模型,以根据易于测量的外部数量估算PMSM的内部温度。拟议的监督学习模型利用了长期记忆(LSTM)模块,双向LSTM和注意机制形成编码器解码器结构,以同时预测定子绕组,牙齿,牙齿,Yoke和永久磁铁的温度。在基准数据集上以详尽的方式进行实验,以验证提出的模型的性能。比较分析表明,拟议的基于全球注意的编码器模型(ENDEC)模型提供了1.72平均平方误差(MSE)和5.34平均绝对误差(MAE)的竞争总体性能。
translated by 谷歌翻译
随着数据的不断增加,将现代机器学习方法应用于建模和控制等领域的兴趣爆炸。但是,尽管这种黑盒模型具有灵活性和令人惊讶的准确性,但仍然很难信任它们。结合两种方法的最新努力旨在开发灵活的模型,这些模型仍然可以很好地推广。我们称为混合分析和建模(HAM)的范式。在这项工作中,我们调查了使用数据驱动模型纠正基于错误的物理模型的纠正源术语方法(COSTA)。这使我们能够开发出可以进行准确预测的模型,即使问题的基本物理学尚未得到充分理解。我们将Costa应用于铝电解电池中的Hall-H \'Eroult工艺。我们证明该方法提高了准确性和预测稳定性,从而产生了总体可信赖的模型。
translated by 谷歌翻译
评估能源转型和能源市场自由化对资源充足性的影响是一种越来越重要和苛刻的任务。能量系统的上升复杂性需要足够的能量系统建模方法,从而提高计算要求。此外,随着复杂性,同样调用概率评估和场景分析同样增加不确定性。为了充分和高效地解决这些各种要求,需要来自数据科学领域的新方法来加速当前方法。通过我们的系统文献综述,我们希望缩小三个学科之间的差距(1)电力供应安全性评估,(2)人工智能和(3)实验设计。为此,我们对所选应用领域进行大规模的定量审查,并制作彼此不同学科的合成。在其他发现之外,我们使用基于AI的方法和应用程序的AI方法和应用来确定电力供应模型的复杂安全性的元素,并作为未充分涵盖的应用领域的储存调度和(非)可用性。我们结束了推出了一种新的方法管道,以便在评估电力供应安全评估时充分有效地解决当前和即将到来的挑战。
translated by 谷歌翻译
近年来,已经引入了几种针对神经状态空间模型的系统识别算法。大多数提出的方法旨在通过对从较长训练数据集提取的简短子序列进行优化来降低学习问题的计算复杂性。然后在Minibatch中同时处理不同的序列,利用现代的并行硬件进行深度学习。在这些方法中产生的问题是需要为每个子序列分配一个初始状态,这是运行模拟并因此评估拟合损失所必需的。在本文中,我们为基于广泛的实验和对两个公认的系统识别基准进行的分析提供了校准神经状态空间训练算法的见解。特定的重点是最初状态估计的选择和作用。我们证明,实际上需要先进的初始状态估计技术来在某些类别的动态系统上实现高性能,而对于渐近稳定的基本程序,例如零或随机初始化,已经产生了竞争性能。
translated by 谷歌翻译
使热处理可控的一种可能的方法是收集有关产品当前状态的实时信息。通常,感觉设备无法轻松或根本捕获所有相关信息。数字双胞胎在实时模拟中使用虚拟探针缩小了这一差距,并与该过程同步。本文提出了一个基于物理的,数据驱动的数字双框架,用于自动食品处理。我们建议使用设备级别可执行的精益数字双胞胎概念,需要最小的计算负载,数据存储和传感器数据要求。这项研究重点是用于热过程的非侵入性降低模型(ROM)的简约实验设计。在训练数据中表面温度的高标准偏差与ROM测试中的均方根误差之间的高标准偏差之间的相关性($ r = -0.76 $)可以有效地选择训练数据。最佳ROM的平均均方根误差小于代表性测试集的1 kelvin(0.2%平均平均百分比误差)。 SP $ \ $ 1.8E4的仿真速度允许进行设备模型预测控制。拟议的数字双框架旨在适用于行业。通常,一旦在未提供对求解器的根级访问(例如商业仿真软件)中执行该过程的建模,就需要一旦在软件中执行该过程的建模,就需要进行非侵入式降级建模。仅使用一个数据集就可以实现降顺序模型的数据驱动训练,因为使用相关性来预测训练成功。
translated by 谷歌翻译
利用电热致动器模拟软机械肢体的动力学通常由于热电磁力和机械磁力和机器人操作期间可能出现的复杂物理相互作用而挑战。本文提出了基于长期短期内存(LSTM)的神经网络,以解决执行器建模中的这些挑战。用一对形状记忆合金(SMA)线圈和包含用于温度和角度偏转的嵌入式传感器的平面软肢体,用作测试平台。来自该机器人的数据用于使用不同的传感器数据的不同组合训练LSTM神经网络,以模拟单向(一个SMA)和双向(两个SMA)运动。 Open-Loop Rollout结果表明,学习模型能够通过漂移较小的漂移来预测超长开环时间尺度(10分钟)的运动。即使仅使用致动器的脉冲宽度调制输入,预测误差是在柔软偏转传感器的精度的顺序上,即使使用致动器的脉冲宽度调制输入。这些LSTM型号可以原位使用,无需广泛的传感,有助于将软电热驱动的机器人带入实际应用中。
translated by 谷歌翻译
天然气管道中的泄漏检测是石油和天然气行业的一个重要且持续的问题。这尤其重要,因为管道是运输天然气的最常见方法。这项研究旨在研究数据驱动的智能模型使用基本操作参数检测天然气管道的小泄漏的能力,然后使用现有的性能指标比较智能模型。该项目应用观察者设计技术,使用回归分类层次模型来检测天然气管道中的泄漏,其中智能模型充当回归器,并且修改后的逻辑回归模型充当分类器。该项目使用四个星期的管道数据流研究了五个智能模型(梯度提升,决策树,随机森林,支持向量机和人工神经网络)。结果表明,虽然支持向量机和人工神经网络比其他网络更好,但由于其内部复杂性和所使用的数据量,它们并未提供最佳的泄漏检测结果。随机森林和决策树模型是最敏感的,因为它们可以在大约2小时内检测到标称流量的0.1%的泄漏。所有智能模型在测试阶段中具有高可靠性,错误警报率为零。将所有智能模型泄漏检测的平均时间与文献中的实时短暂模型进行了比较。结果表明,智能模型在泄漏检测问题中的表现相对较好。该结果表明,可以与实时瞬态模型一起使用智能模型,以显着改善泄漏检测结果。
translated by 谷歌翻译
通过有效的监控和调整电池操作条件,促进了锂离子电池的寿命和安全性。因此,为电池管理系统上的健康状况(SOH)监测提供快速准确的算法至关重要。由于对电池劣化的复杂性和多种因素的复杂性和多种因素的复杂性,特别是因为不同的劣化过程发生在各种时间尺度,并且它们的相互作用发挥着重要作用。数据驱动方法通过用统计或机器学习模型近似复杂进程来绕过这个问题。本文提出了一种数据驱动方法,在电池劣化的背景下,尽管其简单性和易于计算:多变量分数多项式(MFP)回归。模型从一个耗尽的细胞的历史数据训练,并用于预测其他细胞的SOH。数据的特征在于模拟动态操作条件的载荷变化。考虑了两个假设情景:假设最近的容量测量是已知的,则另一个仅基于标称容量。结果表明,在考虑到电池寿命的电池结束时,通过其历史数据的历史数据受到它们的历史数据的影响,电池的降解行为受到其历史数据的影响。此外,我们提供了一种多因素视角,分析了每个不同因素的影响程度。最后,我们与长期内记忆神经网络和其他来自相同数据集的文献的其他作品进行比较。我们得出结论,MFP回归与当代作品有效和竞争,提供了几种额外的优点。在可解释性,恒定性和可实现性方面。
translated by 谷歌翻译
Energy consumption in buildings, both residential and commercial, accounts for approximately 40% of all energy usage in the U.S., and similar numbers are being reported from countries around the world. This significant amount of energy is used to maintain a comfortable, secure, and productive environment for the occupants. So, it is crucial that the energy consumption in buildings must be optimized, all the while maintaining satisfactory levels of occupant comfort, health, and safety. Recently, Machine Learning has been proven to be an invaluable tool in deriving important insights from data and optimizing various systems. In this work, we review the ways in which machine learning has been leveraged to make buildings smart and energy-efficient. For the convenience of readers, we provide a brief introduction of several machine learning paradigms and the components and functioning of each smart building system we cover. Finally, we discuss challenges faced while implementing machine learning algorithms in smart buildings and provide future avenues for research at the intersection of smart buildings and machine learning.
translated by 谷歌翻译
In this work, we demonstrate the offline FPGA realization of both recurrent and feedforward neural network (NN)-based equalizers for nonlinearity compensation in coherent optical transmission systems. First, we present a realization pipeline showing the conversion of the models from Python libraries to the FPGA chip synthesis and implementation. Then, we review the main alternatives for the hardware implementation of nonlinear activation functions. The main results are divided into three parts: a performance comparison, an analysis of how activation functions are implemented, and a report on the complexity of the hardware. The performance in Q-factor is presented for the cases of bidirectional long-short-term memory coupled with convolutional NN (biLSTM + CNN) equalizer, CNN equalizer, and standard 1-StpS digital back-propagation (DBP) for the simulation and experiment propagation of a single channel dual-polarization (SC-DP) 16QAM at 34 GBd along 17x70km of LEAF. The biLSTM+CNN equalizer provides a similar result to DBP and a 1.7 dB Q-factor gain compared with the chromatic dispersion compensation baseline in the experimental dataset. After that, we assess the Q-factor and the impact of hardware utilization when approximating the activation functions of NN using Taylor series, piecewise linear, and look-up table (LUT) approximations. We also show how to mitigate the approximation errors with extra training and provide some insights into possible gradient problems in the LUT approximation. Finally, to evaluate the complexity of hardware implementation to achieve 400G throughput, fixed-point NN-based equalizers with approximated activation functions are developed and implemented in an FPGA.
translated by 谷歌翻译
Various methods using machine and deep learning have been proposed to tackle different tasks in predictive process monitoring, forecasting for an ongoing case e.g. the most likely next event or suffix, its remaining time, or an outcome-related variable. Recurrent neural networks (RNNs), and more specifically long short-term memory nets (LSTMs), stand out in terms of popularity. In this work, we investigate the capabilities of such an LSTM to actually learn the underlying process model structure of an event log. We introduce an evaluation framework that combines variant-based resampling and custom metrics for fitness, precision and generalization. We evaluate 4 hypotheses concerning the learning capabilities of LSTMs, the effect of overfitting countermeasures, the level of incompleteness in the training set and the level of parallelism in the underlying process model. We confirm that LSTMs can struggle to learn process model structure, even with simplistic process data and in a very lenient setup. Taking the correct anti-overfitting measures can alleviate the problem. However, these measures did not present themselves to be optimal when selecting hyperparameters purely on predicting accuracy. We also found that decreasing the amount of information seen by the LSTM during training, causes a sharp drop in generalization and precision scores. In our experiments, we could not identify a relationship between the extent of parallelism in the model and the generalization capability, but they do indicate that the process' complexity might have impact.
translated by 谷歌翻译