随着不透明的预测模型越来越多地影响现代生活的许多领域,对量化给定输入变量进行特定预测的重要性的兴趣已经增长。最近,模型 - 不合稳定方法的扩散是测量可变重要性(VI),该方法分析了在所有变量上训练的完整模型之间的预测能力差异和排除感兴趣的变量的简化模型。这些方法共有的瓶颈是对每个变量(或变量子集)简化模型的估计,这是一个昂贵的过程,通常不带理论保证。在这项工作中,我们提出了一种快速,灵活的方法,用于近似于重要的推理保证。我们通过在完整模型参数下初始化的线性化来取代对广泛的神经网络进行完全检验的需求。通过添加类似山脊的惩罚来使问题凸出,我们证明,当脊罚量参数足够大时,我们的方法估计了$ o(\ frac {1} {\ sqrt {n sqrt {n }})$,其中$ n $是培训样本的数量。我们还表明,我们的估计器在渐近正常上是正常的,使我们能够为VI估计值提供置信界。我们通过模拟证明,我们的方法在几个数据生成方案下是快速准确的,我们在季节性的气候预测示例中证明了其现实世界的适用性。
translated by 谷歌翻译