广泛利用医学和工程科学深度学习的一个主要障碍是其可解释性。虽然神经网络模型是制作预测的强大工具,但它们通常提供很少的信息,其中特征在影响预测准确性时发挥着重要作用。为了克服这个问题,已经提出了利用神经网络学习的许多正则化程序,以丢弃非重大功能。不幸的是,缺乏理论结果对这种管道的适用性产生了疑虑。在这项工作中,我们提出并建立了使用自适应组套索来选择神经网络的重要特征的理论保障。具体而言,我们表明我们的特征选择方法对于具有一个隐藏层和双曲线切线激活功能的单输出前馈神经网络一致。我们使用仿真和数据分析展示其适用性。
translated by 谷歌翻译
在本文中,我们提出了一种自适应组套索深神经网络,用于高维函数近似,其中从动力系统生成输入数据,目标函数取决于少数有源变量或几乎没有变量的线性组合。我们通过深度神经网络近似于目标功能,并强制对合适的隐藏层的权重实施自适应组套索约束,以便表示目标函数的约束。我们利用近端算法优化惩罚损耗函数。使用BREGMAN距离的非负属性,我们证明所提出的优化程序实现损失衰减。我们的实证研究表明,该方法始终优于最近的最先进方法,包括稀疏词典矩阵方法,有或没有组卢赛诺罚款的神经网络。
translated by 谷歌翻译
Consider the multivariate nonparametric regression model. It is shown that estimators based on sparsely connected deep neural networks with ReLU activation function and properly chosen network architecture achieve the minimax rates of convergence (up to log nfactors) under a general composition assumption on the regression function. The framework includes many well-studied structural constraints such as (generalized) additive models. While there is a lot of flexibility in the network architecture, the tuning parameter is the sparsity of the network. Specifically, we consider large networks with number of potential network parameters exceeding the sample size. The analysis gives some insights into why multilayer feedforward neural networks perform well in practice. Interestingly, for ReLU activation function the depth (number of layers) of the neural network architectures plays an important role and our theory suggests that for nonparametric regression, scaling the network depth with the sample size is natural. It is also shown that under the composition assumption wavelet estimators can only achieve suboptimal rates.
translated by 谷歌翻译
深入学习有权成为人工智能(AI)的最近成功。然而,作为深度学习的基本模型,深度神经网络遭受了当地陷阱和错误稳定等问题。在本文中,我们为稀疏深度学习提供了一个新的框架,这具有以一种连贯的方式解决了上述问题。特别是,我们阐述了稀疏深度学习的理论基础,并提出了用于学习稀疏神经网络的先前退火算法。前者已成功地将稀疏的深神经网络命名为统计建模的框架,使得能够正确量化预测不确定性。后者可以渐近地保证收敛到全局最优,从而实现了下游统计推断的有效性。数值结果表明,与现有的方法相比,所提出的方法的优越性。
translated by 谷歌翻译
我们为特殊神经网络架构,称为运营商复发性神经网络的理论分析,用于近似非线性函数,其输入是线性运算符。这些功能通常在解决方案算法中出现用于逆边值问题的问题。传统的神经网络将输入数据视为向量,因此它们没有有效地捕获与对应于这种逆问题中的数据的线性运算符相关联的乘法结构。因此,我们介绍一个类似标准的神经网络架构的新系列,但是输入数据在向量上乘法作用。由较小的算子出现在边界控制中的紧凑型操作员和波动方程的反边值问题分析,我们在网络中的选择权重矩阵中促进结构和稀疏性。在描述此架构后,我们研究其表示属性以及其近似属性。我们还表明,可以引入明确的正则化,其可以从所述逆问题的数学分析导出,并导致概括属性上的某些保证。我们观察到重量矩阵的稀疏性改善了概括估计。最后,我们讨论如何将运营商复发网络视为深度学习模拟,以确定诸如用于从边界测量的声波方程中重建所未知的WAVESTED的边界控制的算法算法。
translated by 谷歌翻译
在本文中,我们利用过度参数化来设计高维单索索引模型的无规矩算法,并为诱导的隐式正则化现象提供理论保证。具体而言,我们研究了链路功能是非线性且未知的矢量和矩阵单索引模型,信号参数是稀疏向量或低秩对称矩阵,并且响应变量可以是重尾的。为了更好地理解隐含正规化的角色而没有过度的技术性,我们假设协变量的分布是先验的。对于载体和矩阵设置,我们通过采用分数函数变换和专为重尾数据的强大截断步骤来构造过度参数化最小二乘损耗功能。我们建议通过将无规则化的梯度下降应用于损耗函数来估计真实参数。当初始化接近原点并且步骤中足够小时,我们证明了所获得的解决方案在载体和矩阵案件中实现了最小的收敛统计速率。此外,我们的实验结果支持我们的理论调查结果,并表明我们的方法在$ \ ell_2 $ -staticatisticated率和变量选择一致性方面具有明确的正则化的经验卓越。
translated by 谷歌翻译
稳定性选择(Meinshausen和Buhlmann,2010)通过返回许多副页面一致选择的功能来使任何特征选择方法更稳定。我们证明(在我们的知识中,它的知识,它的第一个结果),对于包含重要潜在变量的高度相关代理的数据,套索通常选择一个代理,但与套索的稳定性选择不能选择任何代理,导致比单独的套索更糟糕的预测性能。我们介绍集群稳定性选择,这利用了从业者的知识,即数据中存在高度相关的集群,从而产生比此设置中的稳定性选择更好的特征排名。我们考虑了几种特征组合方法,包括在每个重要集群中占据各个重要集群中的特征的加权平均值,其中重量由选择集群成员的频率决定,我们显示的是比以前的提案更好地导致更好的预测模型。我们呈现来自Meinshausen和Buhlmann(2010)和Shah和Samworth(2012)的理论担保的概括,以表明集群稳定选择保留相同的保证。总之,集群稳定性选择享有两个世界的最佳选择,产生既稳定的稀疏选择集,具有良好的预测性能。
translated by 谷歌翻译
我们考虑使用修改后的Relu神经网络进行回归估计,其中首先通过函数$ \ alpha $修改网络权重矩阵,然后再乘以输入向量。我们举例说明连续的,分段线性函数$ \ alpha $为此,以$ l_1 $和Squared $ l_2 $惩罚的经验风险最小化符合经验的风险最小化,最多可进行预测率未知的$ \ beta $ -smooth函数。
translated by 谷歌翻译
We describe an algorithm that learns two-layer residual units using rectified linear unit (ReLU) activation: suppose the input $\mathbf{x}$ is from a distribution with support space $\mathbb{R}^d$ and the ground-truth generative model is a residual unit of this type, given by $\mathbf{y} = \boldsymbol{B}^\ast\left[\left(\boldsymbol{A}^\ast\mathbf{x}\right)^+ + \mathbf{x}\right]$, where ground-truth network parameters $\boldsymbol{A}^\ast \in \mathbb{R}^{d\times d}$ represent a full-rank matrix with nonnegative entries and $\boldsymbol{B}^\ast \in \mathbb{R}^{m\times d}$ is full-rank with $m \geq d$ and for $\boldsymbol{c} \in \mathbb{R}^d$, $[\boldsymbol{c}^{+}]_i = \max\{0, c_i\}$. We design layer-wise objectives as functionals whose analytic minimizers express the exact ground-truth network in terms of its parameters and nonlinearities. Following this objective landscape, learning residual units from finite samples can be formulated using convex optimization of a nonparametric function: for each layer, we first formulate the corresponding empirical risk minimization (ERM) as a positive semi-definite quadratic program (QP), then we show the solution space of the QP can be equivalently determined by a set of linear inequalities, which can then be efficiently solved by linear programming (LP). We further prove the strong statistical consistency of our algorithm, and demonstrate its robustness and sample efficiency through experimental results on synthetic data and a set of benchmark regression datasets.
translated by 谷歌翻译
组选择的最佳子集(BSG)是选择一小部分非重叠组以在响应变量上获得最佳解释性的过程。它吸引了越来越多的关注,并且在实践中具有深远的应用。但是,由于BSG在高维环境中的计算棘手性,开发用于解决BSGS的有效算法仍然是研究热点。在本文中,我们提出了一种划分的算法,该算法迭代地检测相关组并排除了无关的组。此外,再加上新的组信息标准,我们开发了一种自适应算法来确定最佳模型大小。在轻度条件下,我们的算法可以在多项式时间内以高概率确定组的最佳子集是可以证明的。最后,我们通过将它们与合成数据集和现实世界中的几种最新算法进行比较来证明我们的方法的效率和准确性。
translated by 谷歌翻译
我们研究了称为“乐观速率”(Panchenko 2002; Srebro等,2010)的统一收敛概念,用于与高斯数据的线性回归。我们的精致分析避免了现有结果中的隐藏常量和对数因子,这已知在高维设置中至关重要,特别是用于了解插值学习。作为一个特殊情况,我们的分析恢复了Koehler等人的保证。(2021年),在良性过度的过度条件下,严格地表征了低规范内插器的人口风险。但是,我们的乐观速度绑定还分析了具有任意训练错误的预测因子。这使我们能够在随机设计下恢复脊和套索回归的一些经典统计保障,并有助于我们在过度参数化制度中获得精确了解近端器的过度风险。
translated by 谷歌翻译
Causal mediation analysis can unpack the black box of causality and is therefore a powerful tool for disentangling causal pathways in biomedical and social sciences, and also for evaluating machine learning fairness. To reduce bias for estimating Natural Direct and Indirect Effects in mediation analysis, we propose a new method called DeepMed that uses deep neural networks (DNNs) to cross-fit the infinite-dimensional nuisance functions in the efficient influence functions. We obtain novel theoretical results that our DeepMed method (1) can achieve semiparametric efficiency bound without imposing sparsity constraints on the DNN architecture and (2) can adapt to certain low dimensional structures of the nuisance functions, significantly advancing the existing literature on DNN-based semiparametric causal inference. Extensive synthetic experiments are conducted to support our findings and also expose the gap between theory and practice. As a proof of concept, we apply DeepMed to analyze two real datasets on machine learning fairness and reach conclusions consistent with previous findings.
translated by 谷歌翻译
背部衰退的随机梯度下降是人工神经网络的主力。已经很久认识到,BackPropagation无法成为一种生物合理的算法。从根本上,它是一种非本地程序 - 更新一个神经元的突触权重,需要了解下游神经元的突触权重或接受领域。这限制了人工神经网络作为理解大脑中信息处理生物学原理的工具。 Lillicrap等人。 (2016)提出了一种更具生物合理的“反馈对齐”算法,该算法使用随机和固定的反向化重量,并显示有希望的模拟。在本文中,我们通过分析在平方误差损失下的两层网络的收敛和对准来研究反馈对准过程的数学特性。在过度指数化的设置中,我们证明误差会使误差快速收敛到零,并且还需要进行正则化,以便参数与随机背交量对齐。给出了与该分析一致的模拟,并建议进一步的概括。这些结果有助于我们了解生物学合理的算法如何以不同于Hebbian学习的方式进行体重学习,性能与完整的非本地反向验证算法相当。
translated by 谷歌翻译
在监督参数模型的背景下,我们介绍了电子价值的概念。电子价值是标量数量,代表了以在所有功能(即完整模型)训练的模型的子集中训练的模型中训练的模型中参数估计值的接近性。在一般条件下,电子价值的等级排序将包含所有基本特征的模型与不具有的模型分开。电子价值适用于广泛的参数模型。我们使用数据深度和基于快速重采样的算法来使用电子价值实现特征选择过程,从而提供一致性结果。对于$ p $维的功能空间,与传统的拟合和评估$ 2^p $型号相反,此过程仅适用完整型号并评估$ P+1 $型号。通过在几个模型设置以及合成和真实数据集的实验中,我们确定电子价值方法是现有特定于特定模型特征选择方法的有希望的一般替代方法。
translated by 谷歌翻译
我们提出了一种惩罚的非参数方法,以使用整流器二次单元(REEND)激活了深层神经网络,以估计不可分割的模型中的分位数回归过程(QRP),并引入了新的惩罚函数,以实施对瓦解回归曲线的非交叉。我们为估计的QRP建立了非反应过量的风险界限,并在轻度平滑度和规律性条件下得出估计的QRP的平均综合平方误差。为了建立这些非反应风险和估计误差范围,我们还使用$ s> 0 $及其衍生物及其衍生物使用所需的激活的神经网络开发了一个新的错误,用于近似$ c^s $平滑功能。这是必需网络的新近似结果,并且具有独立的兴趣,并且可能在其他问题中有用。我们的数值实验表明,所提出的方法具有竞争性或胜过两种现有方法,包括使用再现核和随机森林的方法,用于非参数分位数回归。
translated by 谷歌翻译
成功的深度学习模型往往涉及培训具有比训练样本数量更多的参数的神经网络架构。近年来已经广泛研究了这种超分子化的模型,并且通过双下降现象和通过优化景观的结构特性,从统计的角度和计算视角都建立了过分统计化的优点。尽管在过上分层的制度中深入学习架构的显着成功,但也众所周知,这些模型对其投入中的小对抗扰动感到高度脆弱。即使在普遍培训的情况下,它们在扰动输入(鲁棒泛化)上的性能也会比良性输入(标准概括)的最佳可达到的性能更糟糕。因此,必须了解如何从根本上影响稳健性的情况下如何影响鲁棒性。在本文中,我们将通过专注于随机特征回归模型(具有随机第一层权重的两层神经网络)来提供超分度化对鲁棒性的作用的精确表征。我们考虑一个制度,其中样本量,输入维度和参数的数量彼此成比例地生长,并且当模型发生前列地训练时,可以为鲁棒泛化误差导出渐近精确的公式。我们的发达理论揭示了过分统计化对鲁棒性的非竞争效果,表明对于普遍训练的随机特征模型,高度公正化可能会损害鲁棒泛化。
translated by 谷歌翻译
这项调查的目的是介绍对深神经网络的近似特性的解释性回顾。具体而言,我们旨在了解深神经网络如何以及为什么要优于其他经典线性和非线性近似方法。这项调查包括三章。在第1章中,我们回顾了深层网络及其组成非线性结构的关键思想和概念。我们通过在解决回归和分类问题时将其作为优化问题来形式化神经网络问题。我们简要讨论用于解决优化问题的随机梯度下降算法以及用于解决优化问题的后传播公式,并解决了与神经网络性能相关的一些问题,包括选择激活功能,成本功能,过度适应问题和正则化。在第2章中,我们将重点转移到神经网络的近似理论上。我们首先介绍多项式近似中的密度概念,尤其是研究实现连续函数的Stone-WeierStrass定理。然后,在线性近似的框架内,我们回顾了馈电网络的密度和收敛速率的一些经典结果,然后在近似Sobolev函数中进行有关深网络复杂性的最新发展。在第3章中,利用非线性近似理论,我们进一步详细介绍了深度和近似网络与其他经典非线性近似方法相比的近似优势。
translated by 谷歌翻译
中毒攻击已成为对机器学习算法的重要安全威胁。已经证明对培训集进行小变化的对手,例如添加特制的数据点,可以损害输出模型的性能。一些更强大的中毒攻击需要全面了解培训数据。这种叶子打开了使用没有完全了解干净训练集的中毒攻击来实现相同的攻击结果的可能性。在这项工作中,我们启动了对上述问题的理论研究。具体而言,对于具有套索的特征选择的情况,我们表明全信息对手(基于培训数据的其余部分的工艺中毒示例)可从未获得培训集的最佳攻击者提供了更强的最佳攻击者数据分发。我们的分离结果表明,数据感知和数据疏忽的两个设置从根本上不同,我们不能希望在这些场景中始终达到相同的攻击或辩护。
translated by 谷歌翻译
我们在回归任务的背景下研究二元激活的神经网络,为这些特定网络的表现提供保证,并提出一种用于构建此类网络的贪婪算法。为了满足预测因素的资源需求较小,贪婪的方法无需提前修复网络的架构:一次构建一层,一次是一个神经元,导致预测因子并不必不是宽。深入执行给定的任务。与增强算法类似,我们的方法可以保证每次将神经元添加到一层时都会减少训练损失。这与大多数依赖于随机梯度下降的训练方案有很大的不同(避免了由替代物(如直通估计器或连续二进制化)等二进制激活功能的二进制激活功能的0个衍生衍生物问题)。我们表明,我们的方法提供了紧凑而稀疏的预测因子,同时获得了与训练二进制激活网络的最先进方法相似的性能。
translated by 谷歌翻译
近年来,由于其在分析复杂的数据集(例如成像,遗传学,气候和医学数据)方面,深度学习一直是几乎所有学科的关注主题。虽然大多数开发被视为黑盒机器,但人们对适用于广泛应用程序的可解释,可靠和健壮的深度学习模型产生了越来越多的兴趣。事实证明,特征选择的深度学习在这方面是有希望的。但是,除了高噪声水平外,最近的发展并未解决超高维度和高度相关特征选择的情况。在本文中,我们提出了一种新颖的筛查和清洁策略,并在深度学习的帮助下,以控制错误率的高度相关预测指标的集群级别的发现。对广泛的模拟场景进行了彻底的经验评估,通过实现高功率,同时具有最少的错误发现,证明了该方法的有效性。此外,我们在理解与核黄素生产的遗传关联的背景下,在核黄素(维生素$ b_2 $)生产数据集中实施了算法。与其他最新方法相比,通过达到较低的预测误差来说明所提出的方法的增益。
translated by 谷歌翻译