本文提出了一种深入学习辅助合成方法,用于使用3D EM结构的RF / MM波被动匹配网络直接端到端生成。与从目标电路分量值和目标拓扑结构合成EM结构的现有方法不同,我们所提出的方法实现了从所需性能值的网络拓扑到输入的网络拓扑的直接合成。我们在片上1:1个变压器的阻抗匹配网络上展示所提出的合成神经网络(NN)模型。通过利用参数共享,综合NN模型成功提取了输入阻抗和负载电容器的相关特征,并在45nm的SOI进程中预测了变压器3D EM几何体,该过程将与标准50 $ \ Omega $负载匹配目标输入阻抗吸收两个装载电容器。作为概念验证,合成了几个示例变压器几何形状,并在ANSYS HFS中验证以提供所需的输入阻抗。
translated by 谷歌翻译
由于技术缩放和更高的灵活性/可重构性需求,模拟混合信号(AMS)电路架构已经发展到更加数字友好。同时,由于优化电路尺寸,布局和验证复杂AMS电路的必要性,AMS电路的设计复杂性和成本基本上增加。另一方面,在过去十年中,机器学习(ML)算法受到指数增长,并由电子设计自动化(EDA)社区积极利用。本文将确定这一趋势所带来的机遇和挑战,并概述了几个新兴AMS设计方法,这些方法是最近的AMS电路架构和机器学习算法的演变。具体而言,我们将专注于使用基于神经网络的代理模型来加快电路设计参数搜索和布局迭代。最后,我们将展示从规范到硅原型的若干AMS电路实例的快速合成,具有显着降低的人为干预。
translated by 谷歌翻译
用于无线多输入多输出(MIMO)系统的通道解码,通道检测,信道评估和资源管理是可以成功应用机器学习(ML)的问题的所有问题。在本文中,我们研究了几种方法来解决一定的预编码方案估算谱效率(SE)值的问题,优选在最短的时间内。在平均平均百分比误差(MAPE)方面的最佳结果是通过梯度升高分类特征,而线性模型展示了更差的预测质量。神经网络同样地表现为渐变升压,但由于超参数调谐和频繁再培训,它们更具资源和耗时。我们研究了所提出的算法在四极针模拟器产生的广泛情景中的实际适用性。在几乎所有场景中,使用渐变升压和神经网络实现的MAPE小于10 \%。
translated by 谷歌翻译
由于数字电路的成熟CAD支持,一种数字有限脉冲响应(FIR)滤波器设计是完全可合成的。相反,模拟混合信号(AMS)滤波器设计主要是手动过程,包括架构选择,原理图设计和布局。这项工作提出了一种系统设计方法,可以使用没有任何可调谐无源组件的时间近似架构自动化AMS FIR滤波器设计,例如开关电容器或电阻器。它不仅提高了过滤器的灵活性,而且还促进了模拟复杂性降低的设计自动化。所提出的设计流程具有混合近似方案,根据时间量化效果自动优化过滤器的脉冲响应,这表明了具有最小设计者在循环中的努力的显着性能改进。另外,基于人工神经网络(ANN)的布局感知回归模型与基于梯度的搜索算法结合使用,用于自动化和加快滤波器设计。通过拟议的框架,我们展示了在65nm过程中快速合成了来自规范到布局的过程中的AMS FIR滤波器。
translated by 谷歌翻译
Data-driven modeling approaches such as jump tables are promising techniques to model populations of resistive random-access memory (ReRAM) or other emerging memory devices for hardware neural network simulations. As these tables rely on data interpolation, this work explores the open questions about their fidelity in relation to the stochastic device behavior they model. We study how various jump table device models impact the attained network performance estimates, a concept we define as modeling bias. Two methods of jump table device modeling, binning and Optuna-optimized binning, are explored using synthetic data with known distributions for benchmarking purposes, as well as experimental data obtained from TiOx ReRAM devices. Results on a multi-layer perceptron trained on MNIST show that device models based on binning can behave unpredictably particularly at low number of points in the device dataset, sometimes over-promising, sometimes under-promising target network accuracy. This paper also proposes device level metrics that indicate similar trends with the modeling bias metric at the network level. The proposed approach opens the possibility for future investigations into statistical device models with better performance, as well as experimentally verified modeling bias in different in-memory computing and neural network architectures.
translated by 谷歌翻译
Accurate uncertainty quantification is necessary to enhance the reliability of deep learning models in real-world applications. In the case of regression tasks, prediction intervals (PIs) should be provided along with the deterministic predictions of deep learning models. Such PIs are useful or "high-quality'' as long as they are sufficiently narrow and capture most of the probability density. In this paper, we present a method to learn prediction intervals for regression-based neural networks automatically in addition to the conventional target predictions. In particular, we train two companion neural networks: one that uses one output, the target estimate, and another that uses two outputs, the upper and lower bounds of the corresponding PI. Our main contribution is the design of a loss function for the PI-generation network that takes into account the output of the target-estimation network and has two optimization objectives: minimizing the mean prediction interval width and ensuring the PI integrity using constraints that maximize the prediction interval probability coverage implicitly. Both objectives are balanced within the loss function using a self-adaptive coefficient. Furthermore, we apply a Monte Carlo-based approach that evaluates the model uncertainty in the learned PIs. Experiments using a synthetic dataset, six benchmark datasets, and a real-world crop yield prediction dataset showed that our method was able to maintain a nominal probability coverage and produce narrower PIs without detriment to its target estimation accuracy when compared to those PIs generated by three state-of-the-art neural-network-based methods.
translated by 谷歌翻译
深度学习(DL)逆技术增加了人工电磁材料(AEM)设计的速度,提高了所得装置的质量。许多DL逆技术在多个AEM设计任务中成功地成功,但要比较,对比度和评估各种技术,澄清逆问题的潜在弊端是至关重要的。在这里,我们审查最先进的方法,并对深度学习逆方法进行全面调查,对AEM设计进行深度学习逆方法和可逆和有条件可逆的神经网络。我们可以轻松访问和快速可实现的AEM设计基准,该基准提供了一种有效地确定最适合解决不同设计挑战的DL技术的方法。我们的方法是通过对重复模拟的限制和易于集成度量的限制,我们提出的是任何AEM设计问题的相对弊端。我们表明,由于问题变得越来越弊,无论模拟约束如何,带有边界损耗(NA)的神经伴随都会产生更好的解决方案。在简单的AEM设计任务中,当模拟有限时,直接神经网络(NN)更好,而混合密度网络(MDN)和条件变化自动编码器(VAE)预测的几何形状可以通过持续的采样和重新模拟来改进。
translated by 谷歌翻译
我们设计和分析了量子变压器,扩展了最先进的经典变压器神经网络体系结构,已知在自然语言处理和图像分析中表现出色。在先前用于数据加载和正交神经层的参数化量子电路的工作的基础上,我们引入了三种量子注意机制,包括基于复合矩阵的量子变压器。这些量子体系结构可以使用浅量子电路构建,并可以提供定性不同的分类模型。与最佳的经典变压器和其他经典基准相比,我们对标准医疗图像数据集进行了量子变压器的广泛模拟,这些量子变压器表现出竞争力,有时表现更好。与经典算法相对于分类图像的大小,我们的量子注意层的计算复杂性被证明是有利的。与拥有数百万参数的最佳经典方法相比,我们的量子体系结构具有数千个参数。最后,我们在超导量子计算机上实施了量子变压器,并获得了多达六个量子实验的令人鼓舞的结果。
translated by 谷歌翻译
置换矩阵构成了一个重要的计算构建块,这些构建块在各个领域中经常使用,例如通信,信息安全和数据处理。具有相对较大数量的基于功率,快速和紧凑型平台的输入输出互连的置换运算符的光学实现是非常可取的。在这里,我们提出了通过深度学习设计的衍射光学网络,以全面执行置换操作,可以使用被动的传播层在输入和视场之间扩展到数十万个互连,这些互连是在波长规模上单独构造的。 。我们的发现表明,衍射光网络在近似给定置换操作中的容量与系统中衍射层和可训练的传输元件的数量成正比。这种更深的衍射网络设计可以在系统的物理对齐和输出衍射效率方面构成实际挑战。我们通过设计不对对准的衍射设计来解决这些挑战,这些设计可以全面执行任意选择的置换操作,并首次在实验中证明了在频谱的THZ部分运行的衍射排列网络。衍射排列网络可能会在例如安全性,图像加密和数据处理以及电信中找到各种应用程序;尤其是在无线通信中的载波频率接近THZ波段的情况下,提出的衍射置换网络可以潜在地充当无线网络中的通道路由和互连面板。
translated by 谷歌翻译
锂离子电池(LIBS)的数学建模是先进电池管理中的主要挑战。本文提出了两个新的框架,将基于机器的基于机器的模型集成,以实现LIBS的高精度建模。该框架的特征在于通知物理模型的状态信息的机器学习模型,从而实现物理和机器学习之间的深度集成。基于框架,通过将电化学模型和等效电路模型分别与前馈神经网络组合,构造了一系列混合模型。混合模型在结构中相对令人惊讶,可以在广泛的C速率下提供相当大的预测精度,如广泛的模拟和实验所示。该研究进一步扩展以进行衰老感知混合建模,导致杂交模型意识到意识到健康状态以进行预测。实验表明,该模型在整个Lib的循环寿命中具有很高的预测精度。
translated by 谷歌翻译
物理信息的神经网络(PINN)是神经网络(NNS),它们作为神经网络本身的组成部分编码模型方程,例如部分微分方程(PDE)。如今,PINN是用于求解PDE,分数方程,积分分化方程和随机PDE的。这种新颖的方法已成为一个多任务学习框架,在该框架中,NN必须在减少PDE残差的同时拟合观察到的数据。本文对PINNS的文献进行了全面的综述:虽然该研究的主要目标是表征这些网络及其相关的优势和缺点。该综述还试图将出版物纳入更广泛的基于搭配的物理知识的神经网络,这些神经网络构成了香草·皮恩(Vanilla Pinn)以及许多其他变体,例如物理受限的神经网络(PCNN),各种HP-VPINN,变量HP-VPINN,VPINN,VPINN,变体。和保守的Pinn(CPINN)。该研究表明,大多数研究都集中在通过不同的激活功能,梯度优化技术,神经网络结构和损耗功能结构来定制PINN。尽管使用PINN的应用范围广泛,但通过证明其在某些情况下比有限元方法(FEM)等经典数值技术更可行的能力,但仍有可能的进步,最著名的是尚未解决的理论问题。
translated by 谷歌翻译
过程变化和设备老化对电路设计师构成了深刻的挑战。如果不对变化对电路路径的延迟的影响进行精确理解,无法正确估计避免定时违规行为的后卫带。对于先进的技术节点,此问题加剧了,其中晶体管尺寸达到原子水平,并且已建立的边缘受到严格限制。因此,传统的最坏情况分析变得不切实际,导致无法忍受的性能开销。相反,过程变化/衰老感知的静态时序分析(STA)为设计师提供了准确的统计延迟分布。然后可以有效地估计小但足够的时正时标志。但是,这样的分析是昂贵的,因为它需要密集的蒙特卡洛模拟。此外,它需要访问基于机密的物理老化模型来生成STA所需的标准细胞库。在这项工作中,我们采用图形神经网络(GNN)来准确估计过程变化和设备衰老对电路中任何路径延迟的影响。我们提出的GNN4REL框架使设计师能够执行快速准确的可靠性估计,而无需访问晶体管模型,标准细胞库甚至STA;这些组件均通过铸造厂的训练纳入GNN模型中。具体而言,对GNN4REL进行了针对工业14NM测量数据进行校准的FinFET技术模型的培训。通过我们对EPFL和ITC-99基准以及RISC-V处理器进行的广泛实验,我们成功估计了所有路径的延迟降级(尤其是在几秒钟内),平均绝对误差降至0.01个百分点。
translated by 谷歌翻译
在逻辑合成阶段,需要将合成工具中的结构转换组合为优化序列,并在电路上作用以满足指定的电路区域和延迟。但是,逻辑合成优化序列是耗时的运行时间,并预测结果(QOR)与电路的合成优化序列的质量(QOR)可以帮助工程师更快地找到更好的优化序列。在这项工作中,我们提出了一种深度学习方法,以预测看不见的电路优化序列对的QOR。具体而言,结构转换通过嵌入方法和高级自然语言处理(NLP)技术(变压器)转换为向量,以提取优化序列的特征。此外,为了使模型的预测过程从电路到电路进行推广,电路的图表示为邻接矩阵和特征矩阵。图神经网络(GNN)用于提取电路的结构特征。对于此问题,使用了变压器和三个典型的GNN。此外,变压器和GNN被用作未见电路优化序列的QOR预测的联合学习政策。由变压器和GNN组合产生的方法基准测试。实验结果表明,变压器和图形的联合学习可获得最佳结果。预测结果的平均绝对误差(MAE)为0.412。
translated by 谷歌翻译
机器学习(ML)模型需要经常在改变各种应用场景中更改数据集,包括数据估值和不确定量化。为了有效地重新培训模型,已经提出了线性近似方法,例如影响功能,以估计数据变化对模型参数的影响。但是,对于大型数据集的变化,这些方法变得不准确。在这项工作中,我们专注于凸起的学习问题,并提出了一般框架,用于学习使用神经网络进行不同训练集的优化模型参数。我们建议强制执行预测的模型参数,以通过正则化技术遵守最优性条件并保持效用,从而显着提高泛化。此外,我们严格地表征了神经网络的表现力,以近似凸起问题的优化器。经验结果展示了与最先进的准确高效的模型参数估计中提出的方法的优点。
translated by 谷歌翻译
我们越早努力计算Calabi-yau歧管的切线空间协调尺寸的努力使用深度学习。在本文中,我们考虑所有Calabi-yau四折的数据集,构建为投影空间的产品中的完整交叉点。采用最先进的计算机视觉架构启发的神经网络,我们改进了早期的基准,并证明所有四个非琐碎的霍奇格数可以使用多任务架构同时学习。30%(80%)培训率,我们达到$ H ^ {(1,1)} $的准确性为100%,以H ^ {(2,1)} $(两者为100%),81%(96%)为$ h ^ {(3,1)} $,49%(83%)为$ h ^ {(2,2)} $。假设欧拉数是已知的,因为它易于计算,并且考虑到从指数计算引起的线性约束,我们得到100%的总精度。
translated by 谷歌翻译
深度学习在广泛的AI应用方面取得了有希望的结果。较大的数据集和模型一致地产生更好的性能。但是,我们一般花费更长的培训时间,以更多的计算和沟通。在本调查中,我们的目标是在模型精度和模型效率方面提供关于大规模深度学习优化的清晰草图。我们调查最常用于优化的算法,详细阐述了大批量培训中出现的泛化差距的可辩论主题,并审查了解决通信开销并减少内存足迹的SOTA策略。
translated by 谷歌翻译
由于希尔伯特空间的指数增长,模拟古典计算机上的量子数量是一个具有挑战性的问题。最近被引入了人工神经网络作为近似量子 - 许多身体状态的新工具。我们基准限制Boltzmann机器量子状态和不同浅层神经自动汇流量子状态的变分力,以模拟不可排益量子依赖链的全局淬火动态。我们发现在给定精度以给定精度表示量子状态所需的参数的数量呈指数增长。增长率仅受到广泛不同设计选择的网络架构的略微影响:浅层和深度网络,小型和大型过滤尺寸,扩张和正常卷积,有和没有快捷连接。
translated by 谷歌翻译
有效的模型选择,用于向下游任务识别合适的预先训练的神经网络是深度学习中的基本但具有挑战性的任务。目前的实践需要昂贵的计算成本在模型训练中进行性能预测。在本文中,我们通过在训练期间分析突触连接(边缘)的控制动态来提出一个新颖的神经网络选择框架。我们的框架是基于神经网络培训期间的回波传播相当于突触连接的动态演变。因此,融合的神经网络与由那些边缘组成的网络系统的平衡状态相关联。为此,我们构建一个网络映射$ \ phi $,将神经网络$ g_a $转换为定向行图$ g_b $,它在$ g_a $中定义。接下来,我们推导出神经电容度量标准$ \ beta _ {\ rm upf} $普遍捕获下游任务上的预测措施,仅使用少数早期训练结果。我们使用17个流行的预先训练的Imagenet模型和五个基准数据集进行了广泛的实验,包括CiFar10,CiFar100,SVHN,时尚Mnist和鸟类,以评估我们框架的微调性能。我们的神经电容度量显示为仅基于早期训练结果的模型选择的强大指标,比最先进的方法更有效。
translated by 谷歌翻译
We investigate how neural networks (NNs) understand physics using 1D quantum mechanics. After training an NN to accurately predict energy eigenvalues from potentials, we used it to confirm the NN's understanding of physics from four different aspects. The trained NN could predict energy eigenvalues of different kinds of potentials than the ones learned, predict the probability distribution of the existence of particles not used during training, reproduce untrained physical phenomena, and predict the energy eigenvalues of potentials with an unknown matter effect. These results show that NNs can learn physical laws from experimental data, predict the results of experiments under conditions different from those used for training, and predict physical quantities of types not provided during training. Because NNs understand physics in a different way than humans, they will be a powerful tool for advancing physics by complementing the human way of understanding.
translated by 谷歌翻译
监督学习的关键假设是培训和测试数据遵循相同的概率分布。然而,这种基本假设在实践中并不总是满足,例如,由于不断变化的环境,样本选择偏差,隐私问题或高标签成本。转移学习(TL)放松这种假设,并允许我们在分销班次下学习。通常依赖于重要性加权的经典TL方法 - 基于根据重要性(即测试过度训练密度比率)的训练损失培训预测器。然而,由于现实世界机器学习任务变得越来越复杂,高维和动态,探讨了新的新方法,以应对这些挑战最近。在本文中,在介绍基于重要性加权的TL基础之后,我们根据关节和动态重要预测估计审查最近的进步。此外,我们介绍一种因果机制转移方法,该方法包含T1中的因果结构。最后,我们讨论了TL研究的未来观点。
translated by 谷歌翻译